GLM,你限速了,我的小龙虾怎么活啊

2026-04-13 12:270阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image1112×227 19.1 KB

不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了

燕咂,没有你我怎么活啊~~云鹏音

网友解答:
--【壹】--:

本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。


--【贰】--:

可以换本地模型搭建个Gemma4或者minimax2.7


--【叁】--:

主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用


--【肆】--:

方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了


--【伍】--:

国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了


--【陆】--: Yunfei Chen:

明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.

coding plan 应该也挺浪费token的吧,感觉差不多和龙虾


--【柒】--:

聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.


--【捌】--:

还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了


--【玖】--:

龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。

阅读全文
问题描述:

image1112×227 19.1 KB

不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了

燕咂,没有你我怎么活啊~~云鹏音

网友解答:
--【壹】--:

本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。


--【贰】--:

可以换本地模型搭建个Gemma4或者minimax2.7


--【叁】--:

主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用


--【肆】--:

方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了


--【伍】--:

国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了


--【陆】--: Yunfei Chen:

明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.

coding plan 应该也挺浪费token的吧,感觉差不多和龙虾


--【柒】--:

聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.


--【捌】--:

还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了


--【玖】--:

龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。

阅读全文