原来之前Codex慢是因为梯子不行
- 内容介绍
- 文章标签
- 相关推荐
我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此
之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多
以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因
以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?
基本上只看linux、github、用codex、chatgpt等研发相关的
网友解答:--【壹】--:
image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法
--【贰】--:
claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq
--【叁】--:
cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点
--【肆】--:
回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。
--【伍】--:
这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的
--【陆】--:
image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。
我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此
之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多
以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因
以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?
基本上只看linux、github、用codex、chatgpt等研发相关的
网友解答:--【壹】--:
image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法
--【贰】--:
claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq
--【叁】--:
cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点
--【肆】--:
回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。
--【伍】--:
这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的
--【陆】--:
image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。

