GLM,你限速了,我的小龙虾怎么活啊

2026-04-13 12:271阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image1112×227 19.1 KB

不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了

燕咂,没有你我怎么活啊~~云鹏音

网友解答:
--【壹】--:

本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。


--【贰】--:

可以换本地模型搭建个Gemma4或者minimax2.7


--【叁】--:

主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用


--【肆】--:

方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了


--【伍】--:

国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了


--【陆】--: Yunfei Chen:

明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.

coding plan 应该也挺浪费token的吧,感觉差不多和龙虾


--【柒】--:

聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.


--【捌】--:

还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了


--【玖】--:

龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。换个Qwen plus3.6先凑合吧。或者换KIMI,都是原生多模态的


--【拾】--:

对,一开始都调用的好好的,突然间变卡了,但是还能用,现在直接没法用了


--【拾壹】--:

上个月还是一堆厂商首页教你接龙虾呢,买的广告也全是龙虾


--【拾贰】--:

那可能是我从今早一直在多channel 对话,太频繁了可能,我换个模型吧


--【拾叁】--:

gemma4能顶的住吗,他这个不是本地大模型吗,好像是


--【拾肆】--:

这样吗,昨天还能调用的,可能是今天调用的太频繁了,被识别了


--【拾伍】--:

好像都说国内模型的收费计划都不赚钱啥的,这钱到底谁在挣啊


--【拾陆】--:

智谱优先供应编程工具,给龙虾的优先级很低


--【拾柒】--:

感觉和最近glm上了一个什么榜单有关系吧,间接性打广告了,人变多了


--【拾捌】--:

turbe可以用,其实你用claudecode高并发反而容易因为并发问题被风控


--【拾玖】--:

龙虾似乎glm都不给请求了… 所有模型都是:LLM error 1305: 该模型当前访问量过大,请您稍后再试 这个问题,但是cli里面应该是没有问题的

问题描述:

image1112×227 19.1 KB

不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了

燕咂,没有你我怎么活啊~~云鹏音

网友解答:
--【壹】--:

本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。


--【贰】--:

可以换本地模型搭建个Gemma4或者minimax2.7


--【叁】--:

主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用


--【肆】--:

方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了


--【伍】--:

国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了


--【陆】--: Yunfei Chen:

明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.

coding plan 应该也挺浪费token的吧,感觉差不多和龙虾


--【柒】--:

聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.


--【捌】--:

还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了


--【玖】--:

龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。换个Qwen plus3.6先凑合吧。或者换KIMI,都是原生多模态的


--【拾】--:

对,一开始都调用的好好的,突然间变卡了,但是还能用,现在直接没法用了


--【拾壹】--:

上个月还是一堆厂商首页教你接龙虾呢,买的广告也全是龙虾


--【拾贰】--:

那可能是我从今早一直在多channel 对话,太频繁了可能,我换个模型吧


--【拾叁】--:

gemma4能顶的住吗,他这个不是本地大模型吗,好像是


--【拾肆】--:

这样吗,昨天还能调用的,可能是今天调用的太频繁了,被识别了


--【拾伍】--:

好像都说国内模型的收费计划都不赚钱啥的,这钱到底谁在挣啊


--【拾陆】--:

智谱优先供应编程工具,给龙虾的优先级很低


--【拾柒】--:

感觉和最近glm上了一个什么榜单有关系吧,间接性打广告了,人变多了


--【拾捌】--:

turbe可以用,其实你用claudecode高并发反而容易因为并发问题被风控


--【拾玖】--:

龙虾似乎glm都不给请求了… 所有模型都是:LLM error 1305: 该模型当前访问量过大,请您稍后再试 这个问题,但是cli里面应该是没有问题的