不知道是不是我的错觉,用 GPT 5.4 远程压缩比用 5.5 要好

2026-04-29 08:062阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

不知道是不是我的错觉,用 GPT 5.4 远程压缩比用 5.5 要好

网友解答:
--【壹】--:

我现在切换成了5.5正常对话,5.4来压缩


--【贰】--:

GPT 5.4 在windows的桌面端经常卡bug


--【叁】--:

远程压缩,说的是上下文压缩还是啥?一下子没看明白喵


--【肆】--:

我遇到比较长的任务的时候,就发现几乎每次compact之后,都会丢一些进度,导致重复工作,不如当时的5.4,难道是我的compact出问题了


--【伍】--:

我去!我还真的没有注意到这一点,我是用的right code的remote compact


--【陆】--:

你有反代吗?
因为远端压缩靠 previous_response_id 还原整个上下文
如果有丢失或中断我估计重整+压缩就会变这样


--【柒】--:

正在探讨要怎么配置 codex 的规则机制
M 的,APP 和 CLI 是两套设置,不知道互不互通
然后新参数 APP 还不吃


--【捌】--:

这5.5的Compact让我感觉回到了5.2,还是有的时候会重复做已经做过的工作,太奇怪了,但是我还没和5.4对比


--【玖】--:

gpt这个远程压缩也只能凭感觉,给client的就一段加密串也看不出来他从历史对话里提取了啥


--【拾】--: apparition:

沒用該參數的話就得看上下文完不完整…

我去!怪不得我每次compact的时候都因为请求体太大断掉


--【拾壹】--:

大半夜在魔改项目的时候发现
远端压缩不吃 previous_response_id,默认全量上下文传递
看来是别的问题

说不定大家 team 死完就好了


--【拾贰】--:

我们似乎看不到远程压缩的结果
只是知道做法而已,感觉不好判断好坏


--【拾叁】--:

还没实际体验出来,等我榨干5.5切回5.4感受一下(大善人又重置啊,用不完哇靠),5.5好快啊,登的plus账号用的xhigh,压缩过几回了,好像还行


--【拾肆】--:

previous_response_id 的目的是让 codex 不用重新上传整份上下文
fallback 才会重传
沒用該參數的話就得看上下文完不完整…

我选择使用 gpt-5.4 压缩,然后等待更新
有问题一定是版本不够新

developers.openai.com

Conversation state | OpenAI API

Learn how to manage conversation state during a model interaction with the OpenAI API.

https://zhuanlan.zhihu.com/p/2019807681553146393


--【拾伍】--: apparition:

因为远端压缩靠 previous_response_id 还原整个上下文

远程压缩必须要这个值嘛 previous_response_id
我让codex看了一下,我现在这个方法似乎没传这个参数


--【拾陆】--:

诶 这个previous_response_id是不是普通的responses的呀,remote compact似乎还是传整个上下文?或许是因为远端用的其他特训模型所以也不会公用缓存了?


--【拾柒】--:

巧了。我也这么干!

by the way 。 这二十字限制,老友们怎么破线!