踩了个codex的坑
- 内容介绍
- 文章标签
- 相关推荐
之前看网上说codex可以自动上下文压缩,不用像claudecode那样手动管理上下文窗口长度。再加上用的是team号,就开着superpowers+chatgpt5.4猛蹬,结果用了一段时间,发现一个回复,居然就用了一个5h session 20%的额度。之前根本用不完的额度,没几下就用完了。仔细一看,context长度达到了5M
各位佬友用的时候一定要注意呀
--【壹】--:
虽然Codex会自动压缩,但是还是习惯性/new一下,上下文长了模型注意力会下降
--【贰】--:
感觉这个功能不错,我先去试试看效果怎么样
--【叁】--:
我也是害怕开new会丢失很多背景信息 哈哈 原来不开new会增加这么多的token用量啊? 顺便问你是开了几个team 一个根本不够用
--【肆】--:
自动上下文压缩 != 总消耗会变少呀
这是两码事
--【伍】--:
直接/new的话会丢失很多上下文信息吧,感觉用/compact可能更好?
--【陆】--:
是我想当然了,之前没用的这么深入,一直感觉team号的量根本用不完
--【柒】--:
嗯呢,下次注意一下提前压缩对话的长度,节约token
--【捌】--:
可以设置自动compact的水位线,我设置了50%最大上下文的时候 auto compact一次。
--【玖】--:
我就开了一个team席位,感觉正常写代码,一般是用不完的。我自己写过不少代码,所以一般需求会提的相对精准,不会让Agent漫无目的的搜索,一般是一个功能一个功能的开发。也想让Agent自己开发大项目,但是无奈很多功能细节Agent实现都不对。我的一整个项目差不多10w行代码,一般一个功能就1000-3000行代码,数据分析,建模为主。
之前看网上说codex可以自动上下文压缩,不用像claudecode那样手动管理上下文窗口长度。再加上用的是team号,就开着superpowers+chatgpt5.4猛蹬,结果用了一段时间,发现一个回复,居然就用了一个5h session 20%的额度。之前根本用不完的额度,没几下就用完了。仔细一看,context长度达到了5M
各位佬友用的时候一定要注意呀
--【壹】--:
虽然Codex会自动压缩,但是还是习惯性/new一下,上下文长了模型注意力会下降
--【贰】--:
感觉这个功能不错,我先去试试看效果怎么样
--【叁】--:
我也是害怕开new会丢失很多背景信息 哈哈 原来不开new会增加这么多的token用量啊? 顺便问你是开了几个team 一个根本不够用
--【肆】--:
自动上下文压缩 != 总消耗会变少呀
这是两码事
--【伍】--:
直接/new的话会丢失很多上下文信息吧,感觉用/compact可能更好?
--【陆】--:
是我想当然了,之前没用的这么深入,一直感觉team号的量根本用不完
--【柒】--:
嗯呢,下次注意一下提前压缩对话的长度,节约token
--【捌】--:
可以设置自动compact的水位线,我设置了50%最大上下文的时候 auto compact一次。
--【玖】--:
我就开了一个team席位,感觉正常写代码,一般是用不完的。我自己写过不少代码,所以一般需求会提的相对精准,不会让Agent漫无目的的搜索,一般是一个功能一个功能的开发。也想让Agent自己开发大项目,但是无奈很多功能细节Agent实现都不对。我的一整个项目差不多10w行代码,一般一个功能就1000-3000行代码,数据分析,建模为主。

