GLM,你限速了,我的小龙虾怎么活啊
- 内容介绍
- 文章标签
- 相关推荐
image1112×227 19.1 KB
不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了
燕咂,没有你我怎么活啊~~云鹏音
网友解答:--【壹】--:
本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。
--【贰】--:
可以换本地模型搭建个Gemma4或者minimax2.7
--【叁】--:
主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用
--【肆】--:
方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了
--【伍】--:
国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了
--【陆】--: Yunfei Chen:
明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
coding plan 应该也挺浪费token的吧,感觉差不多和龙虾
--【柒】--:
聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
--【捌】--:
还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了
--【玖】--:
龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。
image1112×227 19.1 KB
不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了
燕咂,没有你我怎么活啊~~云鹏音
网友解答:--【壹】--:
本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。
--【贰】--:
可以换本地模型搭建个Gemma4或者minimax2.7
--【叁】--:
主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用
--【肆】--:
方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了
--【伍】--:
国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了
--【陆】--: Yunfei Chen:
明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
coding plan 应该也挺浪费token的吧,感觉差不多和龙虾
--【柒】--:
聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
--【捌】--:
还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了
--【玖】--:
龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。

