原来之前Codex慢是因为梯子不行

2026-04-11 12:020阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此

之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多

以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因

以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?

基本上只看linux、github、用codex、chatgpt等研发相关的

网友解答:
--【壹】--:

image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法


--【贰】--:

claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq


--【叁】--:

cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点


--【肆】--:

回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。


--【伍】--:

这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的


--【陆】--:

image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。

阅读全文
问题描述:

我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此

之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多

以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因

以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?

基本上只看linux、github、用codex、chatgpt等研发相关的

网友解答:
--【壹】--:

image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法


--【贰】--:

claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq


--【叁】--:

cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点


--【肆】--:

回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。


--【伍】--:

这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的


--【陆】--:

image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。

阅读全文