发现用GPT 5.5以后TOKEN额度消耗反而更慢了
- 内容介绍
- 文章标签
- 相关推荐
第一大原因是上下文256k,我会经常性新建会话
效率提升,很少问用户问题,让任务流畅执行
今天调用2000多次也只用了140M
--【壹】--:
达人 数据 订单分析。日常监控库存.广告
--【贰】--:
而且左右脑互搏好像也变少了,思考速度和回应速度都快了很多,猜测是无效内耗和浪费也少了很多。
--【叁】--:
完啦 我的plus都是假的吗?5.4的时候可以回答或者做7-8个任务? 5.5最多3个. 同一个项目
--【肆】--:
这两天的量
--【伍】--:
大佬开多个窗口吗?他输出很慢,怎么做到一天1.4亿token的?
--【陆】--:
目前用着感觉他在小一点的项目里面修改前的读文件读的还是比较充分的,大项目还有待考察,不过回复时候确实是简洁太多了,看着挺舒服,也不会每次都问你要不要下一步我会干嘛这种
--【柒】--:
升级后我突然出现了sandbox问题,不知道是我本地环境出故障了还是咋的,一直报权限问题
--【捌】--:
乱码是不是没有给它指定编码?试试在AGENTS.md文件里面让它指定使用UTF-8(无BOM)模式。
--【玖】--:
codex升级后真的太舒服了,目前真可以完全平替claude了
--【拾】--:
实感使用harmes 搭配它来自动化我的tk店铺,体验比之前强很多
--【拾壹】--:
自动化tk店铺 哪些方面可以实现自动化呀
--【拾贰】--:
我个人感觉是之前的 5.4 输出太啰嗦了,尤其是在网页上问一个问题,感觉5.4 是同一个意思,翻来覆去反复说,5.5 会简洁一些,输出很贵的
--【拾叁】--:
可能是我本来就习惯一个任务一个聊天的问题 所以我感觉5.5反而用的更少 因为它读的很精然后输出也不多 严谨性和5.2差不多感觉(在我心里5.4是没5.2细致的) 还有 256k上下文好像是400k除去了128k的输出预留和16k的压缩预留剩的
--【拾肆】--:
解决问题快一些了,但是容易出问题。修完后,好多地方变乱码了。
--【拾伍】--:
对,他现在回答很简洁,更省token了,但是不知道会不会漏看文件,比5.4每次给你输出一大串舒服多了
--【拾陆】--:
完了我用的假的,cx里没给我默认模型。
我也设置的低上下文
--【拾柒】--:
我觉得严谨性可能会下降,不过可以用superpower的方式解决
--【拾捌】--:
本来不想换 5.5 的,担心消耗更大了,这就更新最新的 codex 试试
--【拾玖】--:
确实是,我昨天在cpa看了一下,感觉是变慢了。持续观察一下
第一大原因是上下文256k,我会经常性新建会话
效率提升,很少问用户问题,让任务流畅执行
今天调用2000多次也只用了140M
--【壹】--:
达人 数据 订单分析。日常监控库存.广告
--【贰】--:
而且左右脑互搏好像也变少了,思考速度和回应速度都快了很多,猜测是无效内耗和浪费也少了很多。
--【叁】--:
完啦 我的plus都是假的吗?5.4的时候可以回答或者做7-8个任务? 5.5最多3个. 同一个项目
--【肆】--:
这两天的量
--【伍】--:
大佬开多个窗口吗?他输出很慢,怎么做到一天1.4亿token的?
--【陆】--:
目前用着感觉他在小一点的项目里面修改前的读文件读的还是比较充分的,大项目还有待考察,不过回复时候确实是简洁太多了,看着挺舒服,也不会每次都问你要不要下一步我会干嘛这种
--【柒】--:
升级后我突然出现了sandbox问题,不知道是我本地环境出故障了还是咋的,一直报权限问题
--【捌】--:
乱码是不是没有给它指定编码?试试在AGENTS.md文件里面让它指定使用UTF-8(无BOM)模式。
--【玖】--:
codex升级后真的太舒服了,目前真可以完全平替claude了
--【拾】--:
实感使用harmes 搭配它来自动化我的tk店铺,体验比之前强很多
--【拾壹】--:
自动化tk店铺 哪些方面可以实现自动化呀
--【拾贰】--:
我个人感觉是之前的 5.4 输出太啰嗦了,尤其是在网页上问一个问题,感觉5.4 是同一个意思,翻来覆去反复说,5.5 会简洁一些,输出很贵的
--【拾叁】--:
可能是我本来就习惯一个任务一个聊天的问题 所以我感觉5.5反而用的更少 因为它读的很精然后输出也不多 严谨性和5.2差不多感觉(在我心里5.4是没5.2细致的) 还有 256k上下文好像是400k除去了128k的输出预留和16k的压缩预留剩的
--【拾肆】--:
解决问题快一些了,但是容易出问题。修完后,好多地方变乱码了。
--【拾伍】--:
对,他现在回答很简洁,更省token了,但是不知道会不会漏看文件,比5.4每次给你输出一大串舒服多了
--【拾陆】--:
完了我用的假的,cx里没给我默认模型。
我也设置的低上下文
--【拾柒】--:
我觉得严谨性可能会下降,不过可以用superpower的方式解决
--【拾捌】--:
本来不想换 5.5 的,担心消耗更大了,这就更新最新的 codex 试试
--【拾玖】--:
确实是,我昨天在cpa看了一下,感觉是变慢了。持续观察一下

