codex怎么了,之前一直稳定,今天一直无法自动compact显示超出上下文这种结果,以及reconnecting

2026-04-29 10:062阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

CleanShot 2026-04-23 at 19.09.23@2x986×290 14.1 KB

显示Reconnecting… 1/5

stream disconnected before completion: Incomplete response returned, reason: max_output_tokens

Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?

之前一直没有这种情况,网络很稳定.之前也没有reconnecting这种情况

网友解答:
--【壹】--:

我还以为我的问题,原来大家都有,那就没关系了


--【贰】--:

虽然一直在压缩,但是newapi后台显示有数据,压缩成功而且反复压缩,钱也是照样扣!


--【叁】--:

image208×370 5.47 KB
问题不大,官方客户端,账号登录也这样,今天比昨天严重点,昨天很少,出现也就两三下,今天多点,多的时候一次能八九下,你别觉得什么只有plus team才限流,pro 20x也这样
image293×251 8.16 KB


--【肆】--:

官方账号也不行,感觉就是部分账号路由错了


--【伍】--:

我没有出现reconnect,但也是显示:

■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

然后尝试执行“/compact”就显示:

■ Error running remote compact task: {
“error”: {
“message”: “Your input exceeds the context window of this model. Please adjust your input and try again.”,
“type”: “invalid_request_error”,
“param”: “input”,
“code”: “context_length_exceeded”
}
}

不知什么情况,按理说我“/status”一直显示大于60%的剩余 context window 的。就今天出现这个情况。


--【陆】--:

换官方账号登陆不要用反代就正常了。

我现在可以正常用1m和compact


--【柒】--:

我刚才出现了 压缩卡死的情况,等了10分钟也没有完成压缩. 报错提示: ■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

■ Conversation interrupted - tell the model what to do differently. Something went wrong? Hit /feedback to report the
issue. 我现在是谷歌查询,找到这个帖子,你们解决了吗. 上下文400K左右,重新在搞内容,确实有点麻烦.

ps 2026-4-23 19:12:42
通过 codex fork 会话ID. 创建一个分支解决了.


--【捌】--:

看见不止我一个人出现这情况我就放心了,我用的 sub2api 也出现这情况了

看来是5.4被路由到了一个没有 1m 上下文的模型?奥特曼你在干嘛?


--【玖】--:

我是官方充值的pro 5x,我还以为是多个电脑登录同一个账号导致的,原来大家都有着问题


--【拾】--:

我感觉是路由到新模型去了,

image915×145 2.79 KB

xhigh 的juice从512变到768了,但是问题就是上下文好像没1m了。。我也是400上下文压缩都不行,应该说没触发自动压缩。很烦。


--【拾壹】--:

我今天下午也遇到了,我还以为是我的线路的问题,没想到大伙都有这个问题。


--【拾贰】--:

啥时候开始正常的?我就是官方 Codex CLI ,通过账号登录的,并没有走任何反代。

PS:我感觉就是OpenAI内部路由出问题了,我还是暂停手头的工作吧……


--【拾叁】--:

好像就是CPA的问题,我官方登录codex就没这个了。wc,难道是反代原因?,无法论证


--【拾肆】--:

今天晚上也遇到了,还以为好久没新开对话的原因,从没怀疑过oai


--【拾伍】--:

好像是上游的问题,并发数低的时候很少出现,并发一高就报错


--【拾陆】--:

我是使用的cpa出现了这个问题,超过256k就跳那个上下文的提示,不知道是不是更新到了6.9.34导致的之前用6.9.29还好。

然后我现在直接登录官方账号使用,1m上下文是正常的,compact也正常


--【拾柒】--:

我这边是聊两三句就跟我讲超过上下文,我已经把阈值调到 254k 了还是跟我说上下文超了,力竭……


--【拾捌】--:

我也遇到了,我的是cpa反代出来的,两个plus账号


--【拾玖】--:

就是因为自己有两个号才反代的……切来切去太麻烦.。。

问题描述:

CleanShot 2026-04-23 at 19.09.23@2x986×290 14.1 KB

显示Reconnecting… 1/5

stream disconnected before completion: Incomplete response returned, reason: max_output_tokens

Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

这个session还没开始compact就显示这个超出context.
是不是gpt5.5在上线导致的?

之前一直没有这种情况,网络很稳定.之前也没有reconnecting这种情况

网友解答:
--【壹】--:

我还以为我的问题,原来大家都有,那就没关系了


--【贰】--:

虽然一直在压缩,但是newapi后台显示有数据,压缩成功而且反复压缩,钱也是照样扣!


--【叁】--:

image208×370 5.47 KB
问题不大,官方客户端,账号登录也这样,今天比昨天严重点,昨天很少,出现也就两三下,今天多点,多的时候一次能八九下,你别觉得什么只有plus team才限流,pro 20x也这样
image293×251 8.16 KB


--【肆】--:

官方账号也不行,感觉就是部分账号路由错了


--【伍】--:

我没有出现reconnect,但也是显示:

■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

然后尝试执行“/compact”就显示:

■ Error running remote compact task: {
“error”: {
“message”: “Your input exceeds the context window of this model. Please adjust your input and try again.”,
“type”: “invalid_request_error”,
“param”: “input”,
“code”: “context_length_exceeded”
}
}

不知什么情况,按理说我“/status”一直显示大于60%的剩余 context window 的。就今天出现这个情况。


--【陆】--:

换官方账号登陆不要用反代就正常了。

我现在可以正常用1m和compact


--【柒】--:

我刚才出现了 压缩卡死的情况,等了10分钟也没有完成压缩. 报错提示: ■ Codex ran out of room in the model’s context window. Start a new thread or clear earlier history before retrying.

■ Conversation interrupted - tell the model what to do differently. Something went wrong? Hit /feedback to report the
issue. 我现在是谷歌查询,找到这个帖子,你们解决了吗. 上下文400K左右,重新在搞内容,确实有点麻烦.

ps 2026-4-23 19:12:42
通过 codex fork 会话ID. 创建一个分支解决了.


--【捌】--:

看见不止我一个人出现这情况我就放心了,我用的 sub2api 也出现这情况了

看来是5.4被路由到了一个没有 1m 上下文的模型?奥特曼你在干嘛?


--【玖】--:

我是官方充值的pro 5x,我还以为是多个电脑登录同一个账号导致的,原来大家都有着问题


--【拾】--:

我感觉是路由到新模型去了,

image915×145 2.79 KB

xhigh 的juice从512变到768了,但是问题就是上下文好像没1m了。。我也是400上下文压缩都不行,应该说没触发自动压缩。很烦。


--【拾壹】--:

我今天下午也遇到了,我还以为是我的线路的问题,没想到大伙都有这个问题。


--【拾贰】--:

啥时候开始正常的?我就是官方 Codex CLI ,通过账号登录的,并没有走任何反代。

PS:我感觉就是OpenAI内部路由出问题了,我还是暂停手头的工作吧……


--【拾叁】--:

好像就是CPA的问题,我官方登录codex就没这个了。wc,难道是反代原因?,无法论证


--【拾肆】--:

今天晚上也遇到了,还以为好久没新开对话的原因,从没怀疑过oai


--【拾伍】--:

好像是上游的问题,并发数低的时候很少出现,并发一高就报错


--【拾陆】--:

我是使用的cpa出现了这个问题,超过256k就跳那个上下文的提示,不知道是不是更新到了6.9.34导致的之前用6.9.29还好。

然后我现在直接登录官方账号使用,1m上下文是正常的,compact也正常


--【拾柒】--:

我这边是聊两三句就跟我讲超过上下文,我已经把阈值调到 254k 了还是跟我说上下文超了,力竭……


--【拾捌】--:

我也遇到了,我的是cpa反代出来的,两个plus账号


--【拾玖】--:

就是因为自己有两个号才反代的……切来切去太麻烦.。。