原来之前Codex慢是因为梯子不行
- 内容介绍
- 文章标签
- 相关推荐
我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此
之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多
以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因
以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?
基本上只看linux、github、用codex、chatgpt等研发相关的
网友解答:--【壹】--:
image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法
--【贰】--:
claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq
--【叁】--:
cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点
--【肆】--:
回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。
--【伍】--:
这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的
--【陆】--:
image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。现在要是说快,至少得百八十t/s啊
--【柒】--:
官claude也60tps现在
--【捌】--:
image394×455 11.6 KB
gpt的思考速度和输出速度其实差不多,上面5000多token 下面2000多点,速度差不多也是差了一半时间,思考的多就慢了
--【玖】--:
我在用的时候 在Cherry里看的 opus4.6 现在感觉确定要慢点 codex我认为更多的是思考的多
--【拾】--:
但是fast貌似只在5.4上有用
--【拾壹】--:
ws每个请求快300-500ms fast有点玄学 官方说1.5x speed
--【拾贰】--:
cs请求-网关收到-发给上游-上游收到-上游发起思考-思考完事传给网关-开始输出-传给网关。
正确计时应该是 上游发起思考 首字,但是cs的计时是看网关什么时候给它,如果是隐性思考非流,可能首字50s 52s结束,所以你会看到cs 的各种模型突然几百几千t/s 只能参考
--【拾叁】--:
时延确实也会影响 但是我一直用的台湾的IP 几乎没什么感觉
--【拾肆】--:
对比5.2是起飞了,可惜没用过fast,不知道啥滋味。free plus貌似无法用fast,没team pro 不知道啥味道,知道估计也用不起。
plus我今天没用多一会,5h限额就要干爆了,周限额都1/3了,太夸张了,还不如多几个free了
--【拾伍】--:
fast+websockets会起飞 特别是5.4快了很多
--【拾陆】--:
对 感觉gpt速度其实不慢 但是xh的思考和回复太长所以感觉就慢了
--【拾柒】--:
ws http 差别不大的感觉,真的。fast听说30% 50% 100%提速的啥都听过,但是没吃过
--【拾捌】--:
codex的5.4对比glm5.1动不动二十多十几tps 能稳定四五十首字三四秒不算慢了(
--【拾玖】--:
现在压根不知道什么订阅方案能用fast 那个头带上去了之后 什么订阅方案的回复都是auto
我真日了,之前一直看大伙说codex对比claude慢,我还以为设计如此
之前的额度用完了于是换了个梯子(mesl),发现codex变快了很多
以前的300G套餐能用一年,现在用法不变,但是换完之后,梯子的额度消耗变高了不少,不晓得什么原因
以及换完之后有好多好多节点,之前一共就十几个,选个延迟低的就行,问下大伙要怎么选节点呢?
基本上只看linux、github、用codex、chatgpt等研发相关的
网友解答:--【壹】--:
image808×130 7.23 KB
对的,fast打上去,但是云端打回来就是auto,没办法
--【贰】--:
claude也这么慢了嘛qaq 如果gpt不开xhigh 速度要快得多,不过现在快的模型,100左右的输出,真的明显快qaq
--【叁】--:
cs的速度统计是估算,不太准的,只能参考,尤其考虑思考/非思考
opus我没用过纯官,不知道啥感觉。codex的话,首字大概2~3 部分能到10s,输出大概就是五六十的样子。因为大家用gpt都是拉满了xhigh思考的。
回头我好好算算怎么计算均速,看看测速准点
--【肆】--:
回头我统计下看看,我记得ws复用会快点,但是没感觉到能s为单位明显差异,但是你说3~500ms,那真有可能,毕竟长连接诶。
fast不只是5.4 单独5.4 free都有,他还吃账号等级,还吃时段,我看gpt官方还说了,不是你是pro你100% fast,他也看情况,决定本次加不加速。
--【伍】--:
这样啊 那没办法实测 但是长任务输出我肉眼在cs里面感觉是差不多的
--【陆】--:
image838×490 24.8 KB
free的话,就是慢啊。。。你要看速度的。现在要是说快,至少得百八十t/s啊
--【柒】--:
官claude也60tps现在
--【捌】--:
image394×455 11.6 KB
gpt的思考速度和输出速度其实差不多,上面5000多token 下面2000多点,速度差不多也是差了一半时间,思考的多就慢了
--【玖】--:
我在用的时候 在Cherry里看的 opus4.6 现在感觉确定要慢点 codex我认为更多的是思考的多
--【拾】--:
但是fast貌似只在5.4上有用
--【拾壹】--:
ws每个请求快300-500ms fast有点玄学 官方说1.5x speed
--【拾贰】--:
cs请求-网关收到-发给上游-上游收到-上游发起思考-思考完事传给网关-开始输出-传给网关。
正确计时应该是 上游发起思考 首字,但是cs的计时是看网关什么时候给它,如果是隐性思考非流,可能首字50s 52s结束,所以你会看到cs 的各种模型突然几百几千t/s 只能参考
--【拾叁】--:
时延确实也会影响 但是我一直用的台湾的IP 几乎没什么感觉
--【拾肆】--:
对比5.2是起飞了,可惜没用过fast,不知道啥滋味。free plus貌似无法用fast,没team pro 不知道啥味道,知道估计也用不起。
plus我今天没用多一会,5h限额就要干爆了,周限额都1/3了,太夸张了,还不如多几个free了
--【拾伍】--:
fast+websockets会起飞 特别是5.4快了很多
--【拾陆】--:
对 感觉gpt速度其实不慢 但是xh的思考和回复太长所以感觉就慢了
--【拾柒】--:
ws http 差别不大的感觉,真的。fast听说30% 50% 100%提速的啥都听过,但是没吃过
--【拾捌】--:
codex的5.4对比glm5.1动不动二十多十几tps 能稳定四五十首字三四秒不算慢了(
--【拾玖】--:
现在压根不知道什么订阅方案能用fast 那个头带上去了之后 什么订阅方案的回复都是auto

