Codex 上下文压缩机制解析
- 内容介绍
- 文章标签
- 相关推荐
根据源码分析生成
Codex 自动压缩源码解析
通过流程图、阈值计算器和源码索引理解 Codex auto compaction。
自动压缩从阈值检查到替换历史的概览图900×660 3.36 KB
网友解答:--【壹】--:
现在本地客户端也有压缩成专用二进制格式的功能了?
那OpenAI挺大方的啊,客户端是开源的吧。
--【贰】--:
有 /compact 方法的,可以主动压缩
--【叁】--:
没看到任何地方的官方说和本地有区别。。。实际上看起来计费也是一样的
没准是能避免客户端降智?
--【肆】--:
和本地压缩效果是一样的,逻辑没有任何区别
只是远程压缩省了多次的网络交互,直接一次搞定
--【伍】--:
佬 您这种风格的文章是怎么生成的呀? 怎么给的提示词呀?
--【陆】--:
codex缓存好像从不清理,占用了几百G空间,草台班子
--【柒】--:
这个远程压缩能当作“无限上下文”理解吗,或者堪比1m上下文这种
--【捌】--:
哇塞,大佬都挖到这里了,
这个压缩机制可以用到自其它 code CLI 中吗?
--【玖】--:
现在有没有用户主动触发codex压缩的方法?有时候一个任务做了一半然后突然来一个压缩,压缩完后所有的信息又要重新获取一遍浪费时间,还可能导致任务要求丢失。
--【拾】--:
还得MOZI佬,是牛逼,这都分析出来了,还配了图,赞一个
--【拾壹】--:
这个挺早之前就扒出来了()官方也没藏
事实上Codex存在两种选择机制,分别是运行中自主选择压缩,以及Context用到限制后强制压缩
压缩又分为本地压缩与远端压缩,仅本地压缩的效果就已经很好了,远端压缩那完全就是封神一般的存在
可惜远端压缩是加密的,至今为止都不知道如何实现的
--【拾贰】--:
我没有特意给风格的提示词。也没有给前端方面的提示词
这GPT 5.5是自己这样做的
--【拾叁】--: VrianCao:
压缩又分为本地压缩与远端压缩,仅本地压缩的效果就已经很好了,远端压缩那完全就是封神一般的存在
可惜远端压缩是加密的,至今为止都不知道如何实现的
我之前也是看到了远程compact更好,怎么现在又没有区别了
--【拾肆】--:
codex压缩之后历史对话的原始内容是不是agent就再也看不到了呢,看过cursor的实现,是保存对话信息以及工具调用结果到文件里,需要的话agent可以自己去grep之前的记录
--【拾伍】--:
墨子佬发的内容依旧硬核,感谢墨佬分享,收藏学习
--【拾陆】--:
所以远程和本地的还是存在差异且有效果区分吧?
--【拾柒】--:
auto compact 本质上是在“上下文容量”和“历史保真”之间做交换。短任务问题不大,任务一长 、链路一复杂,摘要替换历史带来的语义损耗就会累积,这也是很多 agent 场景体验不稳定的根源之一。
--【拾捌】--:
这种能实现无限压缩吗?话说佬的这个流程画的是真的好能推荐下是用什么生成的吗
--【拾玖】--:
codex的上下文压缩做的确实挺牛逼,用起来蛮省心的
根据源码分析生成
Codex 自动压缩源码解析
通过流程图、阈值计算器和源码索引理解 Codex auto compaction。
自动压缩从阈值检查到替换历史的概览图900×660 3.36 KB
网友解答:--【壹】--:
现在本地客户端也有压缩成专用二进制格式的功能了?
那OpenAI挺大方的啊,客户端是开源的吧。
--【贰】--:
有 /compact 方法的,可以主动压缩
--【叁】--:
没看到任何地方的官方说和本地有区别。。。实际上看起来计费也是一样的
没准是能避免客户端降智?
--【肆】--:
和本地压缩效果是一样的,逻辑没有任何区别
只是远程压缩省了多次的网络交互,直接一次搞定
--【伍】--:
佬 您这种风格的文章是怎么生成的呀? 怎么给的提示词呀?
--【陆】--:
codex缓存好像从不清理,占用了几百G空间,草台班子
--【柒】--:
这个远程压缩能当作“无限上下文”理解吗,或者堪比1m上下文这种
--【捌】--:
哇塞,大佬都挖到这里了,
这个压缩机制可以用到自其它 code CLI 中吗?
--【玖】--:
现在有没有用户主动触发codex压缩的方法?有时候一个任务做了一半然后突然来一个压缩,压缩完后所有的信息又要重新获取一遍浪费时间,还可能导致任务要求丢失。
--【拾】--:
还得MOZI佬,是牛逼,这都分析出来了,还配了图,赞一个
--【拾壹】--:
这个挺早之前就扒出来了()官方也没藏
事实上Codex存在两种选择机制,分别是运行中自主选择压缩,以及Context用到限制后强制压缩
压缩又分为本地压缩与远端压缩,仅本地压缩的效果就已经很好了,远端压缩那完全就是封神一般的存在
可惜远端压缩是加密的,至今为止都不知道如何实现的
--【拾贰】--:
我没有特意给风格的提示词。也没有给前端方面的提示词
这GPT 5.5是自己这样做的
--【拾叁】--: VrianCao:
压缩又分为本地压缩与远端压缩,仅本地压缩的效果就已经很好了,远端压缩那完全就是封神一般的存在
可惜远端压缩是加密的,至今为止都不知道如何实现的
我之前也是看到了远程compact更好,怎么现在又没有区别了
--【拾肆】--:
codex压缩之后历史对话的原始内容是不是agent就再也看不到了呢,看过cursor的实现,是保存对话信息以及工具调用结果到文件里,需要的话agent可以自己去grep之前的记录
--【拾伍】--:
墨子佬发的内容依旧硬核,感谢墨佬分享,收藏学习
--【拾陆】--:
所以远程和本地的还是存在差异且有效果区分吧?
--【拾柒】--:
auto compact 本质上是在“上下文容量”和“历史保真”之间做交换。短任务问题不大,任务一长 、链路一复杂,摘要替换历史带来的语义损耗就会累积,这也是很多 agent 场景体验不稳定的根源之一。
--【拾捌】--:
这种能实现无限压缩吗?话说佬的这个流程画的是真的好能推荐下是用什么生成的吗
--【拾玖】--:
codex的上下文压缩做的确实挺牛逼,用起来蛮省心的

