Mac 端 Codex Desktop GPT5.5改 1000K 上下文教程

2026-04-29 09:492阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

把提示词给Codex,让Codex帮忙改

提示词.txt (1.6 KB)

PixPin2026-04-2514-48-16586×808 102 KB

效果

PixPin2026-04-2514-41-11481×228 7 KB

网友解答:
--【壹】--:

那订阅版的是400K还是256K呢???


--【贰】--:

MRCRv2 8-needle

模型 4K–8K 8K–16K 16K–32K 32K–64K 64K–128K 128K–256K 256K–512K 512K–1M
GPT-5.1 Thinking 65.3% 47.8% 44.0% 37.8% 36.0% 29.6%
GPT-5.2 Thinking 98.2% 89.3% 95.3% 92.0% 85.6% 77.0%
GPT-5.4 97.3% 91.4% 97.2% 90.5% 86.0% 79.3% 57.5% 36.6%
GPT-5.5 98.1% 93.0% 96.5% 90.0% 83.1% 87.5% 81.5% 74.0%

--【叁】--:

应该不行吧,官方明确说了订阅方式是400K,这是服务端的限制,客户端突破不了啊,只有API调用才有1M上下文
image2794×1218 325 KB


--【肆】--:

没啥用,之前就能改1M的上下文,但是会智障。


--【伍】--:

模型上下文400k,codex的分配是270k输入128k输出,实在要的话可以改到320k-340k输入,再高输出太小容易炸

勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了


--【陆】--:

改成功了,关键是服务器认可吗? gpt服务器会不会仍然按照200K来搞??


--【柒】--:

改了也没意义,codex都是走订阅,还没见过谁走按量api


--【捌】--:

订阅不行啊,实际上超过400K还是失败。


--【玖】--:

我试了一下,确实是这样
这个限制的太死,起码要400K才好用


--【拾】--:

在5.4那会儿就开启过1M,到600-700k的时候纯纯智障,token消耗还快,引用机器之心的话:

“根据 OpenAI 公布的 MRCR v2 8-needle 测试数据,GPT-5.5 在 4K-8K 区间准确率为 98.1%,128K-256K 区间仍维持在 87.5%—— 同区间的 Claude Opus 4.7 为 59.2%。当上下文拉到 512K-1M 时,GPT-5.5 降至 74.0%,而 GPT-5.4 在该区间仅为 36.6%。”


--【拾壹】--:

能否通过newapi或者cpa等等的字段覆写实现呢


--【拾贰】--:

后端支不支持要自己试,按量api应该是支持的


--【拾叁】--:

codex订阅不支持,改了超 400k 也报错的

问题描述:

把提示词给Codex,让Codex帮忙改

提示词.txt (1.6 KB)

PixPin2026-04-2514-48-16586×808 102 KB

效果

PixPin2026-04-2514-41-11481×228 7 KB

网友解答:
--【壹】--:

那订阅版的是400K还是256K呢???


--【贰】--:

MRCRv2 8-needle

模型 4K–8K 8K–16K 16K–32K 32K–64K 64K–128K 128K–256K 256K–512K 512K–1M
GPT-5.1 Thinking 65.3% 47.8% 44.0% 37.8% 36.0% 29.6%
GPT-5.2 Thinking 98.2% 89.3% 95.3% 92.0% 85.6% 77.0%
GPT-5.4 97.3% 91.4% 97.2% 90.5% 86.0% 79.3% 57.5% 36.6%
GPT-5.5 98.1% 93.0% 96.5% 90.0% 83.1% 87.5% 81.5% 74.0%

--【叁】--:

应该不行吧,官方明确说了订阅方式是400K,这是服务端的限制,客户端突破不了啊,只有API调用才有1M上下文
image2794×1218 325 KB


--【肆】--:

没啥用,之前就能改1M的上下文,但是会智障。


--【伍】--:

模型上下文400k,codex的分配是270k输入128k输出,实在要的话可以改到320k-340k输入,再高输出太小容易炸

勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了


--【陆】--:

改成功了,关键是服务器认可吗? gpt服务器会不会仍然按照200K来搞??


--【柒】--:

改了也没意义,codex都是走订阅,还没见过谁走按量api


--【捌】--:

订阅不行啊,实际上超过400K还是失败。


--【玖】--:

我试了一下,确实是这样
这个限制的太死,起码要400K才好用


--【拾】--:

在5.4那会儿就开启过1M,到600-700k的时候纯纯智障,token消耗还快,引用机器之心的话:

“根据 OpenAI 公布的 MRCR v2 8-needle 测试数据,GPT-5.5 在 4K-8K 区间准确率为 98.1%,128K-256K 区间仍维持在 87.5%—— 同区间的 Claude Opus 4.7 为 59.2%。当上下文拉到 512K-1M 时,GPT-5.5 降至 74.0%,而 GPT-5.4 在该区间仅为 36.6%。”


--【拾壹】--:

能否通过newapi或者cpa等等的字段覆写实现呢


--【拾贰】--:

后端支不支持要自己试,按量api应该是支持的


--【拾叁】--:

codex订阅不支持,改了超 400k 也报错的