踩了个codex的坑

2026-04-11 10:501阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

之前看网上说codex可以自动上下文压缩,不用像claudecode那样手动管理上下文窗口长度。再加上用的是team号,就开着superpowers+chatgpt5.4猛蹬,结果用了一段时间,发现一个回复,居然就用了一个5h session 20%的额度。之前根本用不完的额度,没几下就用完了。仔细一看,context长度达到了5M
各位佬友用的时候一定要注意呀

网友解答:
--【壹】--:

虽然Codex会自动压缩,但是还是习惯性/new一下,上下文长了模型注意力会下降


--【贰】--:

感觉这个功能不错,我先去试试看效果怎么样


--【叁】--:

我也是害怕开new会丢失很多背景信息 哈哈 原来不开new会增加这么多的token用量啊? 顺便问你是开了几个team 一个根本不够用


--【肆】--:

自动上下文压缩 != 总消耗会变少呀
这是两码事


--【伍】--:

直接/new的话会丢失很多上下文信息吧,感觉用/compact可能更好?


--【陆】--:

是我想当然了,之前没用的这么深入,一直感觉team号的量根本用不完


--【柒】--:

嗯呢,下次注意一下提前压缩对话的长度,节约token


--【捌】--:

可以设置自动compact的水位线,我设置了50%最大上下文的时候 auto compact一次。


--【玖】--:

我就开了一个team席位,感觉正常写代码,一般是用不完的。我自己写过不少代码,所以一般需求会提的相对精准,不会让Agent漫无目的的搜索,一般是一个功能一个功能的开发。也想让Agent自己开发大项目,但是无奈很多功能细节Agent实现都不对。我的一整个项目差不多10w行代码,一般一个功能就1000-3000行代码,数据分析,建模为主。

我一直好奇大佬们是怎么让agent一直干,同时还能确保代码质量的。佬友一般是什么场景,怎么会用这么多token呀?


--【拾】--:

超过400K后,对话的计费单价会增加很多很多

标签:人工智能
问题描述:

之前看网上说codex可以自动上下文压缩,不用像claudecode那样手动管理上下文窗口长度。再加上用的是team号,就开着superpowers+chatgpt5.4猛蹬,结果用了一段时间,发现一个回复,居然就用了一个5h session 20%的额度。之前根本用不完的额度,没几下就用完了。仔细一看,context长度达到了5M
各位佬友用的时候一定要注意呀

网友解答:
--【壹】--:

虽然Codex会自动压缩,但是还是习惯性/new一下,上下文长了模型注意力会下降


--【贰】--:

感觉这个功能不错,我先去试试看效果怎么样


--【叁】--:

我也是害怕开new会丢失很多背景信息 哈哈 原来不开new会增加这么多的token用量啊? 顺便问你是开了几个team 一个根本不够用


--【肆】--:

自动上下文压缩 != 总消耗会变少呀
这是两码事


--【伍】--:

直接/new的话会丢失很多上下文信息吧,感觉用/compact可能更好?


--【陆】--:

是我想当然了,之前没用的这么深入,一直感觉team号的量根本用不完


--【柒】--:

嗯呢,下次注意一下提前压缩对话的长度,节约token


--【捌】--:

可以设置自动compact的水位线,我设置了50%最大上下文的时候 auto compact一次。


--【玖】--:

我就开了一个team席位,感觉正常写代码,一般是用不完的。我自己写过不少代码,所以一般需求会提的相对精准,不会让Agent漫无目的的搜索,一般是一个功能一个功能的开发。也想让Agent自己开发大项目,但是无奈很多功能细节Agent实现都不对。我的一整个项目差不多10w行代码,一般一个功能就1000-3000行代码,数据分析,建模为主。

我一直好奇大佬们是怎么让agent一直干,同时还能确保代码质量的。佬友一般是什么场景,怎么会用这么多token呀?


--【拾】--:

超过400K后,对话的计费单价会增加很多很多

标签:人工智能