原来之前Codex慢是因为梯子不行

2026-04-11 12:021阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此

之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多

以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因

以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?

基本上只看linux、github、用codex、chatgpt等研发相关的

网友解答:
--【壹】--:

image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法


--【贰】--:

claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq


--【叁】--:

cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点


--【肆】--:

回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。


--【伍】--:

这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的


--【陆】--:

image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。现在要是说快,至少得百八十t/s啊


--【柒】--:

官claude也60tps现在


--【捌】--:

image394×455 11.6 KB
gpt的思考速度和输出速度其实差不多,上面5000多token 下面2000多点,速度差不多也是差了一半时间,思考的多就慢了


--【玖】--:

我在用的时候 在Cherry里看的 opus4.6 现在感觉确定要慢点 codex我认为更多的是思考的多


--【拾】--:

但是fast貌似只在5.4上有用


--【拾壹】--:

ws每个请求快300-500ms fast有点玄学 官方说1.5x speed


--【拾贰】--:

cs请求-网关收到-发给上游-上游收到-上游发起思考-思考完事传给网关-开始输出-传给网关。
正确计时应该是 上游发起思考 首字,但是cs的计时是看网关什么时候给它,如果是隐性思考非流,可能首字50s 52s结束,所以你会看到cs 的各种模型突然几百几千t/s 只能参考


--【拾叁】--:

时延确实也会影响 但是我一直用的台湾的IP 几乎没什么感觉


--【拾肆】--:

对比5.2是起飞了,可惜没用过fast,不知道啥滋味。free plus貌似无法用fast,没team pro 不知道啥味道,知道估计也用不起。
plus我今天没用多一会,5h限额就要干爆了,周限额都1/3了,太夸张了,还不如多几个free了


--【拾伍】--:

fast+websockets会起飞 特别是5.4快了很多


--【拾陆】--:

对 感觉gpt速度其实不慢 但是xh的思考和回复太长所以感觉就慢了


--【拾柒】--:

ws http 差别不大的感觉,真的。fast听说30% 50% 100%提速的啥都听过,但是没吃过


--【拾捌】--:

codex的5.4对比glm5.1动不动二十多十几tps 能稳定四五十首字三四秒不算慢了(


--【拾玖】--:

现在压根不知道什么订阅方案能用fast 那个头带上去了之后 什么订阅方案的回复都是auto

问题描述:

我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此

之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多

以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因

以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?

基本上只看linux、github、用codex、chatgpt等研发相关的

网友解答:
--【壹】--:

image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法


--【贰】--:

claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq


--【叁】--:

cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点


--【肆】--:

回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。


--【伍】--:

这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的


--【陆】--:

image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。现在要是说快,至少得百八十t/s啊


--【柒】--:

官claude也60tps现在


--【捌】--:

image394×455 11.6 KB
gpt的思考速度和输出速度其实差不多,上面5000多token 下面2000多点,速度差不多也是差了一半时间,思考的多就慢了


--【玖】--:

我在用的时候 在Cherry里看的 opus4.6 现在感觉确定要慢点 codex我认为更多的是思考的多


--【拾】--:

但是fast貌似只在5.4上有用


--【拾壹】--:

ws每个请求快300-500ms fast有点玄学 官方说1.5x speed


--【拾贰】--:

cs请求-网关收到-发给上游-上游收到-上游发起思考-思考完事传给网关-开始输出-传给网关。
正确计时应该是 上游发起思考 首字,但是cs的计时是看网关什么时候给它,如果是隐性思考非流,可能首字50s 52s结束,所以你会看到cs 的各种模型突然几百几千t/s 只能参考


--【拾叁】--:

时延确实也会影响 但是我一直用的台湾的IP 几乎没什么感觉


--【拾肆】--:

对比5.2是起飞了,可惜没用过fast,不知道啥滋味。free plus貌似无法用fast,没team pro 不知道啥味道,知道估计也用不起。
plus我今天没用多一会,5h限额就要干爆了,周限额都1/3了,太夸张了,还不如多几个free了


--【拾伍】--:

fast+websockets会起飞 特别是5.4快了很多


--【拾陆】--:

对 感觉gpt速度其实不慢 但是xh的思考和回复太长所以感觉就慢了


--【拾柒】--:

ws http 差别不大的感觉,真的。fast听说30% 50% 100%提速的啥都听过,但是没吃过


--【拾捌】--:

codex的5.4对比glm5.1动不动二十多十几tps 能稳定四五十首字三四秒不算慢了(


--【拾玖】--:

现在压根不知道什么订阅方案能用fast 那个头带上去了之后 什么订阅方案的回复都是auto