GPT5.5 给skill的上下文这么少吗

2026-04-29 09:451阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image2160×918 132 KB
Exceeded skills context budget of 2%
系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。

网友解答:
--【壹】--:

我试过加[1m],用sub2api调用出现问题,现在全切回来用5.4了,上下文还是有点小,等OpenAI官方吧


--【贰】--:

终于遇到一个跟我一样弹出这个warning了。


--【叁】--:

需要合并而非拆分,这个问题是:

  1. gpt-5.5 在 codex 限 256k
  2. SKILL.md 元数据占的上下文超过 2%(~5k token)

image887×524 47.2 KB


--【肆】--:

如果 skill 这么复杂,考虑拆分为多个 skills 或在标准文档里说明约束。渐进披露就是省 token 用的,别都给补回去了


--【伍】--:

正常情况下 skill 应该是按需加载的,现在 codex cli 一进去就提示,说明它是直接预加载了所有 skill,这明显是不对的


--【陆】--:

我直接中断了,给到的上下文太小了,暂时不敢用啊


--【柒】--:

同样遇到这个问题,随之而来的还有输入token消耗巨大的问题


--【捌】--:

正常都会加载 SKILL.md 顶部的元数据的,否则 agent 不会知道 skills 的存在。这明显是元数据塞满了。


--【玖】--:

请问大家有解决这个问题的方案吗?由于这个问题还不敢用5.5


--【拾】--:

skill信息都占到2%了,那其实确实是有点多了(

标签:纯水
问题描述:

image2160×918 132 KB
Exceeded skills context budget of 2%
系统尝试加载一些 “skills/技能” 的说明文档,但给 skills 的上下文预算很小,只有 2%,所以技能描述被截断了。

网友解答:
--【壹】--:

我试过加[1m],用sub2api调用出现问题,现在全切回来用5.4了,上下文还是有点小,等OpenAI官方吧


--【贰】--:

终于遇到一个跟我一样弹出这个warning了。


--【叁】--:

需要合并而非拆分,这个问题是:

  1. gpt-5.5 在 codex 限 256k
  2. SKILL.md 元数据占的上下文超过 2%(~5k token)

image887×524 47.2 KB


--【肆】--:

如果 skill 这么复杂,考虑拆分为多个 skills 或在标准文档里说明约束。渐进披露就是省 token 用的,别都给补回去了


--【伍】--:

正常情况下 skill 应该是按需加载的,现在 codex cli 一进去就提示,说明它是直接预加载了所有 skill,这明显是不对的


--【陆】--:

我直接中断了,给到的上下文太小了,暂时不敢用啊


--【柒】--:

同样遇到这个问题,随之而来的还有输入token消耗巨大的问题


--【捌】--:

正常都会加载 SKILL.md 顶部的元数据的,否则 agent 不会知道 skills 的存在。这明显是元数据塞满了。


--【玖】--:

请问大家有解决这个问题的方案吗?由于这个问题还不敢用5.5


--【拾】--:

skill信息都占到2%了,那其实确实是有点多了(

标签:纯水