随着GPT-5.5上线,free号5.4、5.4-mini、5.3-codex、5.2的限速解除了😋
- 内容介绍
- 文章标签
- 相关推荐
虽然现在free并不能用5.5,但free的5.4、5.4-mini等模型限速解除了 又可以愉快地coding了~
看来每次发新模型前都要这么来一下
GPT-5.4:
GPT-5.4-mini:
现在好快好快的,昨天5.4限到了20token/s,5.4-mini限到了80token/s
明明上次限速没有限5.4mini的
--【壹】--:
佬,这个查看token速度,是怎么查看的
--【贰】--:
咦,这不是很好嘛,终于可以好好的用老模型了 真不错啊,不知道free的量有没有恢复
--【叁】--:
我还以为是我用多了上下文大导致的慢呢,原来是限速了
--【肆】--:
之前 5.4 速度正常。 不开fast 都能到 50 tok/s以上。 今天切换成 5.5, 不开fast, 只有 20 多点。
--【伍】--:
学到了,cherru studio会自动的测算token速度,谢谢佬
--【陆】--:
拥抱老版本 谁叫我们是free 愉快地coding
--【柒】--:
image267×129 4.59 KB
我的好像还是每秒20个左右token
--【捌】--:
image112×125 1.75 KB
刚测正常呀。你这是啥来源
--【玖】--:
比起限速我更关心额度有没有变多,之前实在是少得可怜了
--【拾】--:
我这是在Cherry Studio里让模型输出一个脚本,由此测试的速度。
Cherry Studio在输出结果的右下角会显示首字时延和tokens速率。
用Kelivo也行,belike:
image112×125 1.75 KB
--【拾壹】--:
那这个确实不错,新版本上线,我们可以尝试老版本了
虽然现在free并不能用5.5,但free的5.4、5.4-mini等模型限速解除了 又可以愉快地coding了~
看来每次发新模型前都要这么来一下
GPT-5.4:
GPT-5.4-mini:
现在好快好快的,昨天5.4限到了20token/s,5.4-mini限到了80token/s
明明上次限速没有限5.4mini的
--【壹】--:
佬,这个查看token速度,是怎么查看的
--【贰】--:
咦,这不是很好嘛,终于可以好好的用老模型了 真不错啊,不知道free的量有没有恢复
--【叁】--:
我还以为是我用多了上下文大导致的慢呢,原来是限速了
--【肆】--:
之前 5.4 速度正常。 不开fast 都能到 50 tok/s以上。 今天切换成 5.5, 不开fast, 只有 20 多点。
--【伍】--:
学到了,cherru studio会自动的测算token速度,谢谢佬
--【陆】--:
拥抱老版本 谁叫我们是free 愉快地coding
--【柒】--:
image267×129 4.59 KB
我的好像还是每秒20个左右token
--【捌】--:
image112×125 1.75 KB
刚测正常呀。你这是啥来源
--【玖】--:
比起限速我更关心额度有没有变多,之前实在是少得可怜了
--【拾】--:
我这是在Cherry Studio里让模型输出一个脚本,由此测试的速度。
Cherry Studio在输出结果的右下角会显示首字时延和tokens速率。
用Kelivo也行,belike:
image112×125 1.75 KB
--【拾壹】--:
那这个确实不错,新版本上线,我们可以尝试老版本了

