gpt-5.5确实还不错啊
- 内容介绍
- 文章标签
- 相关推荐
昨天在high上连续跑了8个小时推进了12项功能开发和测试的闭环,没用ralph loop直接在主agent里串行跑subagent,任务全推完后主agent上下文用掉40%(400k上下文)。
完成的质量很高,但一是慢,二是2x倍率撑不住,8小时用掉了pro 5x账号60%的周限,目前是10x优惠期,等结束后5x压根不够用,20x也够呛。
网友解答:--【壹】--:
请教下 ralph loop 怎么用?不太清楚再 codex 如何使用
--【贰】--:
这两天看到佬们的使用情况,大致都是说Token不够用,
--【叁】--:
是最新模型gpt5.5吗,我还没长时间用5.5,不清楚有多强
--【肆】--:
生成效果好是好,但是消耗量也大呀,变相涨价
--【伍】--:
还可以确实挺不错的但是上下文感觉被限制住了258K还是不太够用
--【陆】--:
主要还是不够用,我现在用的5x都不能实现token自由,把fast关掉了才勉强够用
--【柒】--:
我一直用的是high,xhigh有时候容易思考过头,写一堆现在用不上的边边角角的东西,不够YAGNI,还是high比较符合我的口味
--【捌】--:
没开fast。看官方说法是相同任务5.5输出token数量比5.4要少,所以叠加2x credit消耗,真实消耗小于2倍,但我体感高于2倍,没仔细算,就是体感。
--【玖】--:
我用的oh my codex, 这里面带ralph 模式
--【拾】--: happydude:
ralph-loop插件属实是xjb写的。
可能就是他们的员工用claude写的。哈哈。
--【拾壹】--:
是不是开了fast啊,没开fast消耗也这么快?
--【拾贰】--:
佬感觉5.5用high好还是xhigh好,xhigh开了个小任务5小时额度就用了一半多,plus撑不住
--【拾叁】--:
外部起个脚本循环跑codex/cc,每次用全新上下文让它去读相同的任务列表,找没完成的任务去执行就行了,这个取决于你的项目仓库里的任务/spec列表以及测试/审核/验证/提交流程是怎么搭的,所以通常需要按需定制。github上有很多开源的实现,让codex照着给你的项目定制适配一下即可。
核心精髓是每次迭代全新上下文所以能持续推进很多任务不爆上下文不跑偏,所以claude code里那个官方的ralph-loop插件属实是xjb写的。
--【拾肆】--:
我是多开几个号用cockpit tools切着用
--【拾伍】--:
感觉用了5.5 之后token消耗速率比5.4高很多啊,我的gpt pro很快就要被用光了,之前5.4咋用都用不完。。
昨天在high上连续跑了8个小时推进了12项功能开发和测试的闭环,没用ralph loop直接在主agent里串行跑subagent,任务全推完后主agent上下文用掉40%(400k上下文)。
完成的质量很高,但一是慢,二是2x倍率撑不住,8小时用掉了pro 5x账号60%的周限,目前是10x优惠期,等结束后5x压根不够用,20x也够呛。
网友解答:--【壹】--:
请教下 ralph loop 怎么用?不太清楚再 codex 如何使用
--【贰】--:
这两天看到佬们的使用情况,大致都是说Token不够用,
--【叁】--:
是最新模型gpt5.5吗,我还没长时间用5.5,不清楚有多强
--【肆】--:
生成效果好是好,但是消耗量也大呀,变相涨价
--【伍】--:
还可以确实挺不错的但是上下文感觉被限制住了258K还是不太够用
--【陆】--:
主要还是不够用,我现在用的5x都不能实现token自由,把fast关掉了才勉强够用
--【柒】--:
我一直用的是high,xhigh有时候容易思考过头,写一堆现在用不上的边边角角的东西,不够YAGNI,还是high比较符合我的口味
--【捌】--:
没开fast。看官方说法是相同任务5.5输出token数量比5.4要少,所以叠加2x credit消耗,真实消耗小于2倍,但我体感高于2倍,没仔细算,就是体感。
--【玖】--:
我用的oh my codex, 这里面带ralph 模式
--【拾】--: happydude:
ralph-loop插件属实是xjb写的。
可能就是他们的员工用claude写的。哈哈。
--【拾壹】--:
是不是开了fast啊,没开fast消耗也这么快?
--【拾贰】--:
佬感觉5.5用high好还是xhigh好,xhigh开了个小任务5小时额度就用了一半多,plus撑不住
--【拾叁】--:
外部起个脚本循环跑codex/cc,每次用全新上下文让它去读相同的任务列表,找没完成的任务去执行就行了,这个取决于你的项目仓库里的任务/spec列表以及测试/审核/验证/提交流程是怎么搭的,所以通常需要按需定制。github上有很多开源的实现,让codex照着给你的项目定制适配一下即可。
核心精髓是每次迭代全新上下文所以能持续推进很多任务不爆上下文不跑偏,所以claude code里那个官方的ralph-loop插件属实是xjb写的。
--【拾肆】--:
我是多开几个号用cockpit tools切着用
--【拾伍】--:
感觉用了5.5 之后token消耗速率比5.4高很多啊,我的gpt pro很快就要被用光了,之前5.4咋用都用不完。。

