KIMI开始频繁429,跟GLM坐一桌了

2026-04-29 10:503阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐

PixPin2026-04-2115-59-331076×1466 199 KB

附上周的速度,是真的爽啊
PixPin2026-04-2116-03-00748×1588 107 KB

网友解答:
--【壹】--:

图样了吧,我的minimax套餐下午一样也要429


--【贰】--:

minimax 2.7也是一样的,国模都一样的
image3754×264 110 KB


--【叁】--:

我一还一度以为是我配置没配对,结果发现把maxTokens参数往下调能显著增加请求成功率,问题是大部分coding agent这个参数怕都是写死的吧,不知道咋设置的流控策略


--【肆】--:

429说明用户量太大了,比k2.5的流量估计又大了几个数量级


--【伍】--:

没办法 gpt号池用光了 国产算力又不够 已经考虑去买gpt plus组plus号池了


--【陆】--:

这下不得不品尝一下k26了


快进到glm全部替换为Kimi
image1112×406 43.2 KB


--【柒】--:

下午请求了几十次,没一次成功的,全是429,199的套餐都这样那算力到底是给谁用了呢。。


--【捌】--:

用的人太多,算力不足不就是这样.这也没办法.


--【玖】--:

看起来能力的确很强,赶紧先上车。上不去车就难受了


--【拾】--:

国内硬件的确欠缺,429是市场和用户的认可!


--【拾壹】--:

用minimax吧佬,一般能力不行的模型都不会卡(just kidding)


--【拾贰】--:

感觉minimax的能力太差劲了,感觉2.7和2.5也没差


--【拾叁】--:

算力不够啊,国内厂商又不像OpenAI一样数据中心不要钱


--【拾肆】--:

因为很多用 GLM 的都去耍 kimi 了…GLM 确实有点耍猴的感觉,而且很多设施没做好就匆忙上线了所以现在有 kimi 替代那肯定用它啦


--【拾伍】--:

gpt没得用了,只能用国产大模型了,刚好k2.6又发布了,赶上时候了


--【拾陆】--:

429 是大家对模型的认可,是大家对国产的认可。/dog


--【拾柒】--:

确实是这样的,说明今天买套餐的人激增导致算力跟不上了


--【拾捌】--:

kimi也是好起来了,429是大家伙的认可


--【拾玖】--:

大家都去用kimi了,那现在是不是入手glm的好时机?

问题描述:

k2.5的时候就一直在用kimi code的plan,就图他快,结果今天k2.6一发布,429就框框的来了,你跟智谱坐一桌去吧,真没一个靠得住的厂商,亏我开的还是199的套餐

PixPin2026-04-2115-59-331076×1466 199 KB

附上周的速度,是真的爽啊
PixPin2026-04-2116-03-00748×1588 107 KB

网友解答:
--【壹】--:

图样了吧,我的minimax套餐下午一样也要429


--【贰】--:

minimax 2.7也是一样的,国模都一样的
image3754×264 110 KB


--【叁】--:

我一还一度以为是我配置没配对,结果发现把maxTokens参数往下调能显著增加请求成功率,问题是大部分coding agent这个参数怕都是写死的吧,不知道咋设置的流控策略


--【肆】--:

429说明用户量太大了,比k2.5的流量估计又大了几个数量级


--【伍】--:

没办法 gpt号池用光了 国产算力又不够 已经考虑去买gpt plus组plus号池了


--【陆】--:

这下不得不品尝一下k26了


快进到glm全部替换为Kimi
image1112×406 43.2 KB


--【柒】--:

下午请求了几十次,没一次成功的,全是429,199的套餐都这样那算力到底是给谁用了呢。。


--【捌】--:

用的人太多,算力不足不就是这样.这也没办法.


--【玖】--:

看起来能力的确很强,赶紧先上车。上不去车就难受了


--【拾】--:

国内硬件的确欠缺,429是市场和用户的认可!


--【拾壹】--:

用minimax吧佬,一般能力不行的模型都不会卡(just kidding)


--【拾贰】--:

感觉minimax的能力太差劲了,感觉2.7和2.5也没差


--【拾叁】--:

算力不够啊,国内厂商又不像OpenAI一样数据中心不要钱


--【拾肆】--:

因为很多用 GLM 的都去耍 kimi 了…GLM 确实有点耍猴的感觉,而且很多设施没做好就匆忙上线了所以现在有 kimi 替代那肯定用它啦


--【拾伍】--:

gpt没得用了,只能用国产大模型了,刚好k2.6又发布了,赶上时候了


--【拾陆】--:

429 是大家对模型的认可,是大家对国产的认可。/dog


--【拾柒】--:

确实是这样的,说明今天买套餐的人激增导致算力跟不上了


--【拾捌】--:

kimi也是好起来了,429是大家伙的认可


--【拾玖】--:

大家都去用kimi了,那现在是不是入手glm的好时机?