codex怎么了,之前一直稳定,今天一直无法自动compact显示超出上下文这种结果,以及reconnecting
- 内容介绍
- 文章标签
- 相关推荐
CleanShot 2026-04-23 at 19.09.23@2x986×290 14.1 KB
显示Reconnecting… 1/5
stream disconnected before completion: Incomplete response returned, reason: max_output_tokens
Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?
之前一直没有这种情况,网络很稳定.之前也没有reconnecting这种情况
网友解答:--【壹】--:
我还以为我的问题,原来大家都有,那就没关系了
--【贰】--:
虽然一直在压缩,但是newapi后台显示有数据,压缩成功而且反复压缩,钱也是照样扣!
--【叁】--:
image208×370 5.47 KB
问题不大,官方客户端,账号登录也这样,今天比昨天严重点,昨天很少,出现也就两三下,今天多点,多的时候一次能八九下,你别觉得什么只有plus team才限流,pro 20x也这样
image293×251 8.16 KB
--【肆】--:
官方账号也不行,感觉就是部分账号路由错了
--【伍】--:
我没有出现reconnect,但也是显示:
■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
然后尝试执行“/compact”就显示:
■ Error running remote compact task: {
“error”: {
“message”: “Your input exceeds the context window of this model. Please adjust your input and try again.”,
“type”: “invalid_request_error”,
“param”: “input”,
“code”: “context_length_exceeded”
}
}
不知什么情况,按理说我“/status”一直显示大于60%的剩余 context window 的。就今天出现这个情况。
--【陆】--:
换官方账号登陆不要用反代就正常了。
我现在可以正常用1m和compact
--【柒】--:
我刚才出现了 压缩卡死的情况,等了10分钟也没有完成压缩. 报错提示: ■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
■ Conversation interrupted - tell the model what to do differently. Something went wrong? Hit /feedback to report the
issue. 我现在是谷歌查询,找到这个帖子,你们解决了吗. 上下文400K左右,重新在搞内容,确实有点麻烦.
ps 2026-4-23 19:12:42
通过 codex fork 会话ID. 创建一个分支解决了.
--【捌】--:
看见不止我一个人出现这情况我就放心了,我用的 sub2api 也出现这情况了
看来是5.4被路由到了一个没有 1m 上下文的模型?奥特曼你在干嘛?
--【玖】--:
我是官方充值的pro 5x,我还以为是多个电脑登录同一个账号导致的,原来大家都有着问题
--【拾】--:
我感觉是路由到新模型去了,
image915×145 2.79 KB
xhigh 的juice从512变到768了,但是问题就是上下文好像没1m了。。我也是400上下文压缩都不行,应该说没触发自动压缩。很烦。
--【拾壹】--:
我今天下午也遇到了,我还以为是我的线路的问题,没想到大伙都有这个问题。
--【拾贰】--:
啥时候开始正常的?我就是官方 Codex CLI ,通过账号登录的,并没有走任何反代。
PS:我感觉就是OpenAI内部路由出问题了,我还是暂停手头的工作吧……
--【拾叁】--:
好像就是CPA的问题,我官方登录codex就没这个了。wc,难道是反代原因?,无法论证
--【拾肆】--:
今天晚上也遇到了,还以为好久没新开对话的原因,从没怀疑过oai
--【拾伍】--:
好像是上游的问题,并发数低的时候很少出现,并发一高就报错
--【拾陆】--:
我是使用的cpa出现了这个问题,超过256k就跳那个上下文的提示,不知道是不是更新到了6.9.34导致的之前用6.9.29还好。
然后我现在直接登录官方账号使用,1m上下文是正常的,compact也正常
--【拾柒】--:
我这边是聊两三句就跟我讲超过上下文,我已经把阈值调到 254k 了还是跟我说上下文超了,力竭……
--【拾捌】--:
我也遇到了,我的是cpa反代出来的,两个plus账号
--【拾玖】--:
就是因为自己有两个号才反代的……切来切去太麻烦.。。
CleanShot 2026-04-23 at 19.09.23@2x986×290 14.1 KB
显示Reconnecting… 1/5
stream disconnected before completion: Incomplete response returned, reason: max_output_tokens
Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?
之前一直没有这种情况,网络很稳定.之前也没有reconnecting这种情况
网友解答:--【壹】--:
我还以为我的问题,原来大家都有,那就没关系了
--【贰】--:
虽然一直在压缩,但是newapi后台显示有数据,压缩成功而且反复压缩,钱也是照样扣!
--【叁】--:
image208×370 5.47 KB
问题不大,官方客户端,账号登录也这样,今天比昨天严重点,昨天很少,出现也就两三下,今天多点,多的时候一次能八九下,你别觉得什么只有plus team才限流,pro 20x也这样
image293×251 8.16 KB
--【肆】--:
官方账号也不行,感觉就是部分账号路由错了
--【伍】--:
我没有出现reconnect,但也是显示:
■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
然后尝试执行“/compact”就显示:
■ Error running remote compact task: {
“error”: {
“message”: “Your input exceeds the context window of this model. Please adjust your input and try again.”,
“type”: “invalid_request_error”,
“param”: “input”,
“code”: “context_length_exceeded”
}
}
不知什么情况,按理说我“/status”一直显示大于60%的剩余 context window 的。就今天出现这个情况。
--【陆】--:
换官方账号登陆不要用反代就正常了。
我现在可以正常用1m和compact
--【柒】--:
我刚才出现了 压缩卡死的情况,等了10分钟也没有完成压缩. 报错提示: ■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.
■ Conversation interrupted - tell the model what to do differently. Something went wrong? Hit /feedback to report the
issue. 我现在是谷歌查询,找到这个帖子,你们解决了吗. 上下文400K左右,重新在搞内容,确实有点麻烦.
ps 2026-4-23 19:12:42
通过 codex fork 会话ID. 创建一个分支解决了.
--【捌】--:
看见不止我一个人出现这情况我就放心了,我用的 sub2api 也出现这情况了
看来是5.4被路由到了一个没有 1m 上下文的模型?奥特曼你在干嘛?
--【玖】--:
我是官方充值的pro 5x,我还以为是多个电脑登录同一个账号导致的,原来大家都有着问题
--【拾】--:
我感觉是路由到新模型去了,
image915×145 2.79 KB
xhigh 的juice从512变到768了,但是问题就是上下文好像没1m了。。我也是400上下文压缩都不行,应该说没触发自动压缩。很烦。
--【拾壹】--:
我今天下午也遇到了,我还以为是我的线路的问题,没想到大伙都有这个问题。
--【拾贰】--:
啥时候开始正常的?我就是官方 Codex CLI ,通过账号登录的,并没有走任何反代。
PS:我感觉就是OpenAI内部路由出问题了,我还是暂停手头的工作吧……
--【拾叁】--:
好像就是CPA的问题,我官方登录codex就没这个了。wc,难道是反代原因?,无法论证
--【拾肆】--:
今天晚上也遇到了,还以为好久没新开对话的原因,从没怀疑过oai
--【拾伍】--:
好像是上游的问题,并发数低的时候很少出现,并发一高就报错
--【拾陆】--:
我是使用的cpa出现了这个问题,超过256k就跳那个上下文的提示,不知道是不是更新到了6.9.34导致的之前用6.9.29还好。
然后我现在直接登录官方账号使用,1m上下文是正常的,compact也正常
--【拾柒】--:
我这边是聊两三句就跟我讲超过上下文,我已经把阈值调到 254k 了还是跟我说上下文超了,力竭……
--【拾捌】--:
我也遇到了,我的是cpa反代出来的,两个plus账号
--【拾玖】--:
就是因为自己有两个号才反代的……切来切去太麻烦.。。

