Mac 端 Codex Desktop GPT5.5改 1000K 上下文教程
- 内容介绍
- 文章标签
- 相关推荐
把提示词给Codex,让Codex帮忙改
提示词.txt (1.6 KB)
PixPin2026-04-2514-48-16586×808 102 KB
效果
PixPin2026-04-2514-41-11481×228 7 KB
网友解答:--【壹】--:
那订阅版的是400K还是256K呢???
--【贰】--:
MRCRv2 8-needle
| 模型 | 4K–8K | 8K–16K | 16K–32K | 32K–64K | 64K–128K | 128K–256K | 256K–512K | 512K–1M |
|---|---|---|---|---|---|---|---|---|
| GPT-5.1 Thinking | 65.3% | 47.8% | 44.0% | 37.8% | 36.0% | 29.6% | — | — |
| GPT-5.2 Thinking | 98.2% | 89.3% | 95.3% | 92.0% | 85.6% | 77.0% | — | — |
| GPT-5.4 | 97.3% | 91.4% | 97.2% | 90.5% | 86.0% | 79.3% | 57.5% | 36.6% |
| GPT-5.5 | 98.1% | 93.0% | 96.5% | 90.0% | 83.1% | 87.5% | 81.5% | 74.0% |
--【叁】--:
应该不行吧,官方明确说了订阅方式是400K,这是服务端的限制,客户端突破不了啊,只有API调用才有1M上下文
image2794×1218 325 KB
--【肆】--:
没啥用,之前就能改1M的上下文,但是会智障。
--【伍】--:
模型上下文400k,codex的分配是270k输入128k输出,实在要的话可以改到320k-340k输入,再高输出太小容易炸
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了
--【陆】--:
改成功了,关键是服务器认可吗? gpt服务器会不会仍然按照200K来搞??
--【柒】--:
改了也没意义,codex都是走订阅,还没见过谁走按量api
--【捌】--:
订阅不行啊,实际上超过400K还是失败。
--【玖】--:
我试了一下,确实是这样
这个限制的太死,起码要400K才好用
--【拾】--:
在5.4那会儿就开启过1M,到600-700k的时候纯纯智障,token消耗还快,引用机器之心的话:
“根据 OpenAI 公布的 MRCR v2 8-needle 测试数据,GPT-5.5 在 4K-8K 区间准确率为 98.1%,128K-256K 区间仍维持在 87.5%—— 同区间的 Claude Opus 4.7 为 59.2%。当上下文拉到 512K-1M 时,GPT-5.5 降至 74.0%,而 GPT-5.4 在该区间仅为 36.6%。”
--【拾壹】--:
能否通过newapi或者cpa等等的字段覆写实现呢
--【拾贰】--:
后端支不支持要自己试,按量api应该是支持的
--【拾叁】--:
codex订阅不支持,改了超 400k 也报错的
把提示词给Codex,让Codex帮忙改
提示词.txt (1.6 KB)
PixPin2026-04-2514-48-16586×808 102 KB
效果
PixPin2026-04-2514-41-11481×228 7 KB
网友解答:--【壹】--:
那订阅版的是400K还是256K呢???
--【贰】--:
MRCRv2 8-needle
| 模型 | 4K–8K | 8K–16K | 16K–32K | 32K–64K | 64K–128K | 128K–256K | 256K–512K | 512K–1M |
|---|---|---|---|---|---|---|---|---|
| GPT-5.1 Thinking | 65.3% | 47.8% | 44.0% | 37.8% | 36.0% | 29.6% | — | — |
| GPT-5.2 Thinking | 98.2% | 89.3% | 95.3% | 92.0% | 85.6% | 77.0% | — | — |
| GPT-5.4 | 97.3% | 91.4% | 97.2% | 90.5% | 86.0% | 79.3% | 57.5% | 36.6% |
| GPT-5.5 | 98.1% | 93.0% | 96.5% | 90.0% | 83.1% | 87.5% | 81.5% | 74.0% |
--【叁】--:
应该不行吧,官方明确说了订阅方式是400K,这是服务端的限制,客户端突破不了啊,只有API调用才有1M上下文
image2794×1218 325 KB
--【肆】--:
没啥用,之前就能改1M的上下文,但是会智障。
--【伍】--:
模型上下文400k,codex的分配是270k输入128k输出,实在要的话可以改到320k-340k输入,再高输出太小容易炸
勘误:看来不行,输入上下文定死了,270k附近的输入,不用改了
--【陆】--:
改成功了,关键是服务器认可吗? gpt服务器会不会仍然按照200K来搞??
--【柒】--:
改了也没意义,codex都是走订阅,还没见过谁走按量api
--【捌】--:
订阅不行啊,实际上超过400K还是失败。
--【玖】--:
我试了一下,确实是这样
这个限制的太死,起码要400K才好用
--【拾】--:
在5.4那会儿就开启过1M,到600-700k的时候纯纯智障,token消耗还快,引用机器之心的话:
“根据 OpenAI 公布的 MRCR v2 8-needle 测试数据,GPT-5.5 在 4K-8K 区间准确率为 98.1%,128K-256K 区间仍维持在 87.5%—— 同区间的 Claude Opus 4.7 为 59.2%。当上下文拉到 512K-1M 时,GPT-5.5 降至 74.0%,而 GPT-5.4 在该区间仅为 36.6%。”
--【拾壹】--:
能否通过newapi或者cpa等等的字段覆写实现呢
--【拾贰】--:
后端支不支持要自己试,按量api应该是支持的
--【拾叁】--:
codex订阅不支持,改了超 400k 也报错的

