如果国内codingplan中非要选一个,大家怎么选啊

2026-04-29 10:522阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

国内现在很多厂都从codingplan 变成tokenplan,都不是按次收费,变成按token收费了,那不就是妥妥的不够用了嘛
如果当前非得选一个国内的按此调用的coding plan 兜底备用的话,性价比,稳定性,速度上怎么选呢?

好像当前 火山、百度、联通支持多个模型的,可以购买,讯飞支持单个模型的可以购买,京东支持多个模型,要抢,阿里、腾讯基本算是下架转token plan了,没有按此的了

结论1:minimax out。

网友解答:
--【壹】--:

首先排除讯飞39块钱一个月一半以上的请求都失败了,太挤了


--【贰】--:

没办法,得有个国内的兜底,国外的也经常出问题,不能用的时候,没得用 还是很难受的


--【叁】--:

没有经常出问题啊,用不了claude用gpt,极少数时候两个都不能用


--【肆】--:

我用的实在是太少了,5小时用量的一半都用不到,主要是修改python脚本对批量数据进行处理,都是比较简单的需求 ,不过能力确实不如之前用的gpt5.4聪明。我觉得性价比是很高的了


--【伍】--:

gemma4的26b和31b到底哪个好,大佬有去测试过么


--【陆】--:

讯飞的已经试过39的了,还没到期,我实际试下来有很多请求失败都是tpm超限 错误码11210,说啥每分钟token数量超了,但是又没有官方说明具体限制是多少 ,基本是到期了也不准备续的,所以得想想备胎啊


--【柒】--:

如果真的非要用国内的,那我还是用gemma4:26b吧


--【捌】--:

讯飞今天看了下,不同模型端点和key还不一样 ?


--【玖】--:

除了glm没有能打的了吧,其他的只能干杂活


--【拾】--:

千帆一般 12 点到 18 点之间持续 429


--【拾壹】--:

我买了minimax29的最丐版,感觉还行,可能是我需求不高,也没遇到高峰期忙碌的问题


--【拾贰】--:

我用过一些国外中转的,只能说非管方的很大概率 你不知道人家具体是啥模型,之前一个codex 5.3,帮我生成的文档,一直打嘴炮,沟通10轮都不去写,简直是浪费时间。
再之前试用过官方的gpt team一个月,那是真能打的,干嘛麻溜的很。目前国外的anti里面还有个google pro在用


--【拾叁】--:

国内的plan非要选的话推荐kimi吧,至少比glm的plan更像人,限流和降智比较少见,推荐199那个套餐


--【拾肆】--:

是啊,阿里和腾讯算是云厂商里面转型最早的,已经全面转型tokenplan了,对我们来说,其实性价比太低了点


--【拾伍】--:

只有阿里和腾讯的能保证基础的使用体验,因为他们早将coding plan改成几乎不可买的状态了。而且现在貌似已经改机制了,coding plan不上新模型,想上新模型得去买token plan


--【拾陆】--:

glm大概率不是模型不行,是厂家不行,动不动429,不让你用


--【拾柒】--:

日常使用量如何,minimax有没有个定量的统计的地方?
另外,很多人反馈minimax干活不行,大佬觉得怎么样?日常用来处理哪些任务的?


--【拾捌】--:

我之前用过GLM4.7 GLM5,前2天还用了站内大佬公益的GLM5.1,我觉得GLM其实是可以的,但是大家都说他动不动就GG…但我个人还是推荐GLM


--【拾玖】--:

不行,一定要选国外的,国内真的不强啊,说实话

标签:纯水
问题描述:

国内现在很多厂都从codingplan 变成tokenplan,都不是按次收费,变成按token收费了,那不就是妥妥的不够用了嘛
如果当前非得选一个国内的按此调用的coding plan 兜底备用的话,性价比,稳定性,速度上怎么选呢?

好像当前 火山、百度、联通支持多个模型的,可以购买,讯飞支持单个模型的可以购买,京东支持多个模型,要抢,阿里、腾讯基本算是下架转token plan了,没有按此的了

结论1:minimax out。

网友解答:
--【壹】--:

首先排除讯飞39块钱一个月一半以上的请求都失败了,太挤了


--【贰】--:

没办法,得有个国内的兜底,国外的也经常出问题,不能用的时候,没得用 还是很难受的


--【叁】--:

没有经常出问题啊,用不了claude用gpt,极少数时候两个都不能用


--【肆】--:

我用的实在是太少了,5小时用量的一半都用不到,主要是修改python脚本对批量数据进行处理,都是比较简单的需求 ,不过能力确实不如之前用的gpt5.4聪明。我觉得性价比是很高的了


--【伍】--:

gemma4的26b和31b到底哪个好,大佬有去测试过么


--【陆】--:

讯飞的已经试过39的了,还没到期,我实际试下来有很多请求失败都是tpm超限 错误码11210,说啥每分钟token数量超了,但是又没有官方说明具体限制是多少 ,基本是到期了也不准备续的,所以得想想备胎啊


--【柒】--:

如果真的非要用国内的,那我还是用gemma4:26b吧


--【捌】--:

讯飞今天看了下,不同模型端点和key还不一样 ?


--【玖】--:

除了glm没有能打的了吧,其他的只能干杂活


--【拾】--:

千帆一般 12 点到 18 点之间持续 429


--【拾壹】--:

我买了minimax29的最丐版,感觉还行,可能是我需求不高,也没遇到高峰期忙碌的问题


--【拾贰】--:

我用过一些国外中转的,只能说非管方的很大概率 你不知道人家具体是啥模型,之前一个codex 5.3,帮我生成的文档,一直打嘴炮,沟通10轮都不去写,简直是浪费时间。
再之前试用过官方的gpt team一个月,那是真能打的,干嘛麻溜的很。目前国外的anti里面还有个google pro在用


--【拾叁】--:

国内的plan非要选的话推荐kimi吧,至少比glm的plan更像人,限流和降智比较少见,推荐199那个套餐


--【拾肆】--:

是啊,阿里和腾讯算是云厂商里面转型最早的,已经全面转型tokenplan了,对我们来说,其实性价比太低了点


--【拾伍】--:

只有阿里和腾讯的能保证基础的使用体验,因为他们早将coding plan改成几乎不可买的状态了。而且现在貌似已经改机制了,coding plan不上新模型,想上新模型得去买token plan


--【拾陆】--:

glm大概率不是模型不行,是厂家不行,动不动429,不让你用


--【拾柒】--:

日常使用量如何,minimax有没有个定量的统计的地方?
另外,很多人反馈minimax干活不行,大佬觉得怎么样?日常用来处理哪些任务的?


--【拾捌】--:

我之前用过GLM4.7 GLM5,前2天还用了站内大佬公益的GLM5.1,我觉得GLM其实是可以的,但是大家都说他动不动就GG…但我个人还是推荐GLM


--【拾玖】--:

不行,一定要选国外的,国内真的不强啊,说实话

标签:纯水