缓存命中真的和cli优化有关嘛

2026-04-11 11:271阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

用冰佬的公益 这是日志情况
image1464×762 65.9 KB
image1564×751 69.4 KB

网友解答:
--【壹】--:

Codex 的代码量大成啥了 而且云压缩端点你实现了吗? /responses/compact

以及你实现了也没用 公益站没有

只用 OAuth上


--【贰】--:

想啥呢 自然是上游占大头 下游配合实施


--【叁】--:

请问你开了1M上下文吗?我发现开了之后缓存命中会高出3倍,费率会高出三倍,不开的话我的费用和你的就差不多


--【肆】--:

感谢感谢~


--【伍】--:

我刚看见你这个是claude-cli的,我只在codex里配过1m上下文,cc在哪可以配呢?


--【陆】--:

我自己从0搓agent兼容codex的感受是,缓存命中和客户端对上下文的处理方法有非常大的关系。如果一字不落把所有上下文放进user prompt,基本上就是楼主这样的缓存情况,吃不到什么。


--【柒】--: SCD:

我最近也在了解学习缓存命中的知识,但是搞不明白原理,逆向软件什么的更是一窍不懂,佬有没有什么这方面的建议或者更进一步的心得?我的初衷是想知道上下文输入对缓存命中有多大

感谢佬儿 我学学 我以为帖子都沉底了 没想到现在才能被看到


--【捌】--:

model里面选opus1m就行,不过我不太清楚这个oai free中转的是否支持1m上下文,目前没用超过


--【玖】--:

同,不知道有什么好的解决办法


--【拾】--:

我开了1m,但是这个测试没加项目的上下文,就是简单提问,带项目至少奔100k去了


--【拾壹】--:

啥是缓存命中啊?


--【拾贰】--:

我是这么操作的,仅供参考~

改前
image2936×696 184 KB

改后
1.用了 你的 AI 生产力,刚刚得到了一次“越狱”级升级!
2.先/size-check 优化完了项目大文件
3.再次执行任务,花费token变低了很多
image2390×688 152 KB


--【拾叁】--:

我发现用openai的responses接口,不用a/的messages接口缓存就正常了,基本能到90%
image1074×225 14.8 KB
image2180×319 48.5 KB


--【拾肆】--:

我最近也在了解学习缓存命中的知识,但是搞不明白原理,逆向软件什么的更是一窍不懂,佬有没有什么这方面的建议或者更进一步的心得?我的初衷是想知道上下文输入对缓存命中有多大影响

标签:快问快答
问题描述:

用冰佬的公益 这是日志情况
image1464×762 65.9 KB
image1564×751 69.4 KB

网友解答:
--【壹】--:

Codex 的代码量大成啥了 而且云压缩端点你实现了吗? /responses/compact

以及你实现了也没用 公益站没有

只用 OAuth上


--【贰】--:

想啥呢 自然是上游占大头 下游配合实施


--【叁】--:

请问你开了1M上下文吗?我发现开了之后缓存命中会高出3倍,费率会高出三倍,不开的话我的费用和你的就差不多


--【肆】--:

感谢感谢~


--【伍】--:

我刚看见你这个是claude-cli的,我只在codex里配过1m上下文,cc在哪可以配呢?


--【陆】--:

我自己从0搓agent兼容codex的感受是,缓存命中和客户端对上下文的处理方法有非常大的关系。如果一字不落把所有上下文放进user prompt,基本上就是楼主这样的缓存情况,吃不到什么。


--【柒】--: SCD:

我最近也在了解学习缓存命中的知识,但是搞不明白原理,逆向软件什么的更是一窍不懂,佬有没有什么这方面的建议或者更进一步的心得?我的初衷是想知道上下文输入对缓存命中有多大

感谢佬儿 我学学 我以为帖子都沉底了 没想到现在才能被看到


--【捌】--:

model里面选opus1m就行,不过我不太清楚这个oai free中转的是否支持1m上下文,目前没用超过


--【玖】--:

同,不知道有什么好的解决办法


--【拾】--:

我开了1m,但是这个测试没加项目的上下文,就是简单提问,带项目至少奔100k去了


--【拾壹】--:

啥是缓存命中啊?


--【拾贰】--:

我是这么操作的,仅供参考~

改前
image2936×696 184 KB

改后
1.用了 你的 AI 生产力,刚刚得到了一次“越狱”级升级!
2.先/size-check 优化完了项目大文件
3.再次执行任务,花费token变低了很多
image2390×688 152 KB


--【拾叁】--:

我发现用openai的responses接口,不用a/的messages接口缓存就正常了,基本能到90%
image1074×225 14.8 KB
image2180×319 48.5 KB


--【拾肆】--:

我最近也在了解学习缓存命中的知识,但是搞不明白原理,逆向软件什么的更是一窍不懂,佬有没有什么这方面的建议或者更进一步的心得?我的初衷是想知道上下文输入对缓存命中有多大影响

标签:快问快答