GPT5.5 给skill的上下文这么少吗
- 内容介绍
- 文章标签
- 相关推荐
image2160×918 132 KB
Exceeded skills context budget of 2%
系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。
--【壹】--:
我试过加[1m],用sub2api调用出现问题,现在全切回来用5.4了,上下文还是有点小,等OpenAI官方吧
--【贰】--:
终于遇到一个跟我一样弹出这个warning了。
--【叁】--:
需要合并而非拆分,这个问题是:
- gpt-5.5 在 codex 限 256k
- SKILL.md 元数据占的上下文超过 2%(~5k token)
image887×524 47.2 KB
--【肆】--:
如果 skill 这么复杂,考虑拆分为多个 skills 或在标准文档里说明约束。渐进披露就是省 token 用的,别都给补回去了
--【伍】--:
正常情况下 skill 应该是按需加载的,现在 codex cli 一进去就提示,说明它是直接预加载了所有 skill,这明显是不对的
--【陆】--:
我直接中断了,给到的上下文太小了,暂时不敢用啊
--【柒】--:
同样遇到这个问题,随之而来的还有输入token消耗巨大的问题
--【捌】--:
正常都会加载 SKILL.md 顶部的元数据的,否则 agent 不会知道 skills 的存在。这明显是元数据塞满了。
--【玖】--:
请问大家有解决这个问题的方案吗?由于这个问题还不敢用5.5
--【拾】--:
skill信息都占到2%了,那其实确实是有点多了(
image2160×918 132 KB
Exceeded skills context budget of 2%
系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。
--【壹】--:
我试过加[1m],用sub2api调用出现问题,现在全切回来用5.4了,上下文还是有点小,等OpenAI官方吧
--【贰】--:
终于遇到一个跟我一样弹出这个warning了。
--【叁】--:
需要合并而非拆分,这个问题是:
- gpt-5.5 在 codex 限 256k
- SKILL.md 元数据占的上下文超过 2%(~5k token)
image887×524 47.2 KB
--【肆】--:
如果 skill 这么复杂,考虑拆分为多个 skills 或在标准文档里说明约束。渐进披露就是省 token 用的,别都给补回去了
--【伍】--:
正常情况下 skill 应该是按需加载的,现在 codex cli 一进去就提示,说明它是直接预加载了所有 skill,这明显是不对的
--【陆】--:
我直接中断了,给到的上下文太小了,暂时不敢用啊
--【柒】--:
同样遇到这个问题,随之而来的还有输入token消耗巨大的问题
--【捌】--:
正常都会加载 SKILL.md 顶部的元数据的,否则 agent 不会知道 skills 的存在。这明显是元数据塞满了。
--【玖】--:
请问大家有解决这个问题的方案吗?由于这个问题还不敢用5.5
--【拾】--:
skill信息都占到2%了,那其实确实是有点多了(

