GLM,你限速了,我的小龙虾怎么活啊
- 内容介绍
- 文章标签
- 相关推荐
image1112×227 19.1 KB
不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了
燕咂,没有你我怎么活啊~~云鹏音
网友解答:--【壹】--:
本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。
--【贰】--:
可以换本地模型搭建个Gemma4或者minimax2.7
--【叁】--:
主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用
--【肆】--:
方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了
--【伍】--:
国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了
--【陆】--: Yunfei Chen:
明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
coding plan 应该也挺浪费token的吧,感觉差不多和龙虾
--【柒】--:
聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
--【捌】--:
还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了
--【玖】--:
龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。换个Qwen plus3.6先凑合吧。或者换KIMI,都是原生多模态的
--【拾】--:
对,一开始都调用的好好的,突然间变卡了,但是还能用,现在直接没法用了
--【拾壹】--:
上个月还是一堆厂商首页教你接龙虾呢,买的广告也全是龙虾
--【拾贰】--:
那可能是我从今早一直在多channel 对话,太频繁了可能,我换个模型吧
--【拾叁】--:
gemma4能顶的住吗,他这个不是本地大模型吗,好像是
--【拾肆】--:
这样吗,昨天还能调用的,可能是今天调用的太频繁了,被识别了
--【拾伍】--:
好像都说国内模型的收费计划都不赚钱啥的,这钱到底谁在挣啊
--【拾陆】--:
智谱优先供应编程工具,给龙虾的优先级很低
--【拾柒】--:
感觉和最近glm上了一个什么榜单有关系吧,间接性打广告了,人变多了
--【拾捌】--:
turbe可以用,其实你用claudecode高并发反而容易因为并发问题被风控
…
--【拾玖】--:
龙虾似乎glm都不给请求了… 所有模型都是:LLM error 1305: 该模型当前访问量过大,请您稍后再试 这个问题,但是cli里面应该是没有问题的
image1112×227 19.1 KB
不知道是不是受GLM5.1上了榜单前三的原因,买的人多了,现在开始限速了,还是我调用的太频繁了
燕咂,没有你我怎么活啊~~云鹏音
网友解答:--【壹】--:
本地小模型别接龙虾,例如7b、32b那些,小模型智商很低,容易发疯,别把自己系统搞坏了。
不说上GPT、claude那种顶级模型,也得是GLM、KIMI、Qwen这些主力的一线模型,最起码发疯乱删的可能小得多的多。
--【贰】--:
可以换本地模型搭建个Gemma4或者minimax2.7
--【叁】--:
主要最近公益站不太稳,好多佬的公益站都倒闭了,就临时用用
--【肆】--:
方案整的明明白白啊,太感谢佬了,昨天正常,可能是今天太频繁了
--【伍】--:
国内迟早限速,国外高费用,所以要么就用没那么好的模型(minimax),或者就本地搭建了
--【陆】--: Yunfei Chen:
明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
coding plan 应该也挺浪费token的吧,感觉差不多和龙虾
--【柒】--:
聪明点的厂商基本上都会在plan计划上禁掉龙虾这种浪费token的东西.用龙虾的可以用以token计算的收费,那个厂商应该不会禁,钱多就去用龙虾吧.
--【捌】--:
还是因为访问量太大了,这个情况都要考虑在本地搭建用,不然云端用的量大了后,基本上都是开始限速或者限制次数使用了
--【玖】--:
龙虾还是换别的吧,智谱现在算力能保障coding工具已经是极限了,不可能照顾龙虾。换个Qwen plus3.6先凑合吧。或者换KIMI,都是原生多模态的
--【拾】--:
对,一开始都调用的好好的,突然间变卡了,但是还能用,现在直接没法用了
--【拾壹】--:
上个月还是一堆厂商首页教你接龙虾呢,买的广告也全是龙虾
--【拾贰】--:
那可能是我从今早一直在多channel 对话,太频繁了可能,我换个模型吧
--【拾叁】--:
gemma4能顶的住吗,他这个不是本地大模型吗,好像是
--【拾肆】--:
这样吗,昨天还能调用的,可能是今天调用的太频繁了,被识别了
--【拾伍】--:
好像都说国内模型的收费计划都不赚钱啥的,这钱到底谁在挣啊
--【拾陆】--:
智谱优先供应编程工具,给龙虾的优先级很低
--【拾柒】--:
感觉和最近glm上了一个什么榜单有关系吧,间接性打广告了,人变多了
--【拾捌】--:
turbe可以用,其实你用claudecode高并发反而容易因为并发问题被风控
…
--【拾玖】--:
龙虾似乎glm都不给请求了… 所有模型都是:LLM error 1305: 该模型当前访问量过大,请您稍后再试 这个问题,但是cli里面应该是没有问题的

