modal.com一个月无限免费GLM5(fp8) 小测与基本教程()
- 内容介绍
- 文章标签
- 相关推荐
首先感谢这位佬提供的素材:
Modal 限免 GLM-5.1 — GLM-5.1 is available to try on Modal 开发调优刚准备试一试 modal,看到了GLM-5.1限免到4月30号。 响应忽快忽慢的,是不是应该等别人睡觉的时候跑。 工具调用效果挺好的。 注册登录过的佬可以到下面的地址领 Key。 https://modal.com/glm-5-endpoint [image] [image]
并发为1 只能聊天
Modal: High-performance AI infrastructure
Bring your own code, and run CPU, GPU, and data-intensive compute at scale. The serverless platform for AI and data teams.
点进去登录送5刀,不知道有什么用
然后去
https://modal.com/glm-5-endpoint?section=requests
手机端请横屏,不然的话没法创建key:
Screenshot_20260409_0139071260×1636 232 KB
不要curl 直接接入
下面那个延迟25秒的是在线curl
上面那个延迟才1秒的是接入chatbox
效果:
Screenshot_20260409_0142581260×1475 403 KB
Screenshot_20260409_0137061260×1305 236 KB
我这边可以检测到两个模型
fp8-2用不了,日志里显示503 不带2的可以用
对比gemma4 :
Screenshot_20260409_0148041260×1082 358 KB
glm5.1:
Screenshot_20260409_0148451260×1891 367 KB
--【壹】--:
image1080×1730 164 KB我裂开来,首字延时5838ms,输出速度8tokens每秒
--【贰】--:
就这速度能让很多人直接崩溃吧,尤其是弄agent的
--【叁】--:
已經被調到新註冊5美刀了麽,先前也試過註冊30美刀時用comfyui玩了一下
--【肆】--:
昨天的确还好,今天看来彻底炸了,大家太给力了
只是平均速度慢,但是他「能」回复的时候还是挺快的,就是会卡住 卡很久。真正输出的时候一秒还是能输出十个字左右的。
Screenshot_20260410_0118251256×783 128 KB
Screenshot_20260410_0121001260×1768 499 KB
也是说了足足2分钟()
--【伍】--: 魔天Modem_w:
agent的
这就是个公益福利(当然也算是广告)。没有那么完美
无限免费还要求什么?
单并发就是一个局限
agent还好,就算调用工具也是先说完一段话,再调用工具 返回结果了再说下一段话 而不是同步进行(可能也有同步进行的agent)
所以单并发也不致命
但是慢就没话说了
--【陆】--:
请问这个模型是不能接入claude那些终端吗
--【柒】--:
这个点也好慢啊 刚测试了一下 链接用30秒
--【捌】--:
优化了标题
补充了部分内容
补充了两个参考对照模型~
--【玖】--:
佬写的真详细,赞啦。
以前我用modal跑comfyui的,现在有需要的时候在上面跑一些小的embedding模型。
--【拾】--:
没见过的格式,不会折腾,自己还是用minmax玩玩吧
--【拾壹】--:
是欣姐欸w
贴贴!w
欣欣|林可欣:
不知道有什么用
这个是可以用gpu的啦w
其实也是有别的用途的喵w)
--【拾贰】--:
就…就是可能还是有一点…需要一点抱抱啦w
其实ff都是拿这个来跑注册机的w)
欣姐把这个当成一个学Linux的地方就可以啦w
--【拾叁】--: 0wFF:
贴贴!w
感觉是ff酱第一次找我贴贴w
看起来状态还不错呢~
这个是可以用gpu的啦w
那挺好的w
不过我这种小白用不好
--【拾肆】--:
那些配置似乎比较复杂,这种需要适合简单配置的平台
首先感谢这位佬提供的素材:
Modal 限免 GLM-5.1 — GLM-5.1 is available to try on Modal 开发调优刚准备试一试 modal,看到了GLM-5.1限免到4月30号。 响应忽快忽慢的,是不是应该等别人睡觉的时候跑。 工具调用效果挺好的。 注册登录过的佬可以到下面的地址领 Key。 https://modal.com/glm-5-endpoint [image] [image]
并发为1 只能聊天
Modal: High-performance AI infrastructure
Bring your own code, and run CPU, GPU, and data-intensive compute at scale. The serverless platform for AI and data teams.
点进去登录送5刀,不知道有什么用
然后去
https://modal.com/glm-5-endpoint?section=requests
手机端请横屏,不然的话没法创建key:
Screenshot_20260409_0139071260×1636 232 KB
不要curl 直接接入
下面那个延迟25秒的是在线curl
上面那个延迟才1秒的是接入chatbox
效果:
Screenshot_20260409_0142581260×1475 403 KB
Screenshot_20260409_0137061260×1305 236 KB
我这边可以检测到两个模型
fp8-2用不了,日志里显示503 不带2的可以用
对比gemma4 :
Screenshot_20260409_0148041260×1082 358 KB
glm5.1:
Screenshot_20260409_0148451260×1891 367 KB
--【壹】--:
image1080×1730 164 KB我裂开来,首字延时5838ms,输出速度8tokens每秒
--【贰】--:
就这速度能让很多人直接崩溃吧,尤其是弄agent的
--【叁】--:
已經被調到新註冊5美刀了麽,先前也試過註冊30美刀時用comfyui玩了一下
--【肆】--:
昨天的确还好,今天看来彻底炸了,大家太给力了
只是平均速度慢,但是他「能」回复的时候还是挺快的,就是会卡住 卡很久。真正输出的时候一秒还是能输出十个字左右的。
Screenshot_20260410_0118251256×783 128 KB
Screenshot_20260410_0121001260×1768 499 KB
也是说了足足2分钟()
--【伍】--: 魔天Modem_w:
agent的
这就是个公益福利(当然也算是广告)。没有那么完美
无限免费还要求什么?
单并发就是一个局限
agent还好,就算调用工具也是先说完一段话,再调用工具 返回结果了再说下一段话 而不是同步进行(可能也有同步进行的agent)
所以单并发也不致命
但是慢就没话说了
--【陆】--:
请问这个模型是不能接入claude那些终端吗
--【柒】--:
这个点也好慢啊 刚测试了一下 链接用30秒
--【捌】--:
优化了标题
补充了部分内容
补充了两个参考对照模型~
--【玖】--:
佬写的真详细,赞啦。
以前我用modal跑comfyui的,现在有需要的时候在上面跑一些小的embedding模型。
--【拾】--:
没见过的格式,不会折腾,自己还是用minmax玩玩吧
--【拾壹】--:
是欣姐欸w
贴贴!w
欣欣|林可欣:
不知道有什么用
这个是可以用gpu的啦w
其实也是有别的用途的喵w)
--【拾贰】--:
就…就是可能还是有一点…需要一点抱抱啦w
其实ff都是拿这个来跑注册机的w)
欣姐把这个当成一个学Linux的地方就可以啦w
--【拾叁】--: 0wFF:
贴贴!w
感觉是ff酱第一次找我贴贴w
看起来状态还不错呢~
这个是可以用gpu的啦w
那挺好的w
不过我这种小白用不好
--【拾肆】--:
那些配置似乎比较复杂,这种需要适合简单配置的平台

