不知道是不是我的错觉,用 GPT 5.4 远程压缩比用 5.5 要好
- 内容介绍
- 文章标签
- 相关推荐
不知道是不是我的错觉,用 GPT 5.4 远程压缩比用 5.5 要好
网友解答:--【壹】--:
我现在切换成了5.5正常对话,5.4来压缩
--【贰】--:
GPT 5.4 在windows的桌面端经常卡bug
--【叁】--:
远程压缩,说的是上下文压缩还是啥?一下子没看明白喵
--【肆】--:
我遇到比较长的任务的时候,就发现几乎每次compact之后,都会丢一些进度,导致重复工作,不如当时的5.4,难道是我的compact出问题了
--【伍】--:
我去!我还真的没有注意到这一点,我是用的right code的remote compact
--【陆】--:
你有反代吗?
因为远端压缩靠 previous_response_id 还原整个上下文
如果有丢失或中断我估计重整+压缩就会变这样
--【柒】--:
正在探讨要怎么配置 codex 的规则机制
M 的,APP 和 CLI 是两套设置,不知道互不互通
然后新参数 APP 还不吃
--【捌】--:
这5.5的Compact让我感觉回到了5.2,还是有的时候会重复做已经做过的工作,太奇怪了,但是我还没和5.4对比
--【玖】--:
gpt这个远程压缩也只能凭感觉,给client的就一段加密串也看不出来他从历史对话里提取了啥
--【拾】--: apparition:
沒用該參數的話就得看上下文完不完整…
我去!怪不得我每次compact的时候都因为请求体太大断掉
--【拾壹】--:
大半夜在魔改项目的时候发现
远端压缩不吃 previous_response_id,默认全量上下文传递
看来是别的问题
说不定大家 team 死完就好了
--【拾贰】--:
我们似乎看不到远程压缩的结果
只是知道做法而已,感觉不好判断好坏
--【拾叁】--:
还没实际体验出来,等我榨干5.5切回5.4感受一下(大善人又重置啊,用不完哇靠),5.5好快啊,登的plus账号用的xhigh,压缩过几回了,好像还行
--【拾肆】--:
previous_response_id 的目的是让 codex 不用重新上传整份上下文
fallback 才会重传
沒用該參數的話就得看上下文完不完整…
我选择使用 gpt-5.4 压缩,然后等待更新
有问题一定是版本不够新
Conversation state | OpenAI API
Learn how to manage conversation state during a model interaction with the OpenAI API.
https://zhuanlan.zhihu.com/p/2019807681553146393
--【拾伍】--: apparition:
因为远端压缩靠 previous_response_id 还原整个上下文
远程压缩必须要这个值嘛 previous_response_id
我让codex看了一下,我现在这个方法似乎没传这个参数
--【拾陆】--:
诶 这个previous_response_id是不是普通的responses的呀,remote compact似乎还是传整个上下文?或许是因为远端用的其他特训模型所以也不会公用缓存了?
--【拾柒】--:
巧了。我也这么干!
by the way 。 这二十字限制,老友们怎么破线!
不知道是不是我的错觉,用 GPT 5.4 远程压缩比用 5.5 要好
网友解答:--【壹】--:
我现在切换成了5.5正常对话,5.4来压缩
--【贰】--:
GPT 5.4 在windows的桌面端经常卡bug
--【叁】--:
远程压缩,说的是上下文压缩还是啥?一下子没看明白喵
--【肆】--:
我遇到比较长的任务的时候,就发现几乎每次compact之后,都会丢一些进度,导致重复工作,不如当时的5.4,难道是我的compact出问题了
--【伍】--:
我去!我还真的没有注意到这一点,我是用的right code的remote compact
--【陆】--:
你有反代吗?
因为远端压缩靠 previous_response_id 还原整个上下文
如果有丢失或中断我估计重整+压缩就会变这样
--【柒】--:
正在探讨要怎么配置 codex 的规则机制
M 的,APP 和 CLI 是两套设置,不知道互不互通
然后新参数 APP 还不吃
--【捌】--:
这5.5的Compact让我感觉回到了5.2,还是有的时候会重复做已经做过的工作,太奇怪了,但是我还没和5.4对比
--【玖】--:
gpt这个远程压缩也只能凭感觉,给client的就一段加密串也看不出来他从历史对话里提取了啥
--【拾】--: apparition:
沒用該參數的話就得看上下文完不完整…
我去!怪不得我每次compact的时候都因为请求体太大断掉
--【拾壹】--:
大半夜在魔改项目的时候发现
远端压缩不吃 previous_response_id,默认全量上下文传递
看来是别的问题
说不定大家 team 死完就好了
--【拾贰】--:
我们似乎看不到远程压缩的结果
只是知道做法而已,感觉不好判断好坏
--【拾叁】--:
还没实际体验出来,等我榨干5.5切回5.4感受一下(大善人又重置啊,用不完哇靠),5.5好快啊,登的plus账号用的xhigh,压缩过几回了,好像还行
--【拾肆】--:
previous_response_id 的目的是让 codex 不用重新上传整份上下文
fallback 才会重传
沒用該參數的話就得看上下文完不完整…
我选择使用 gpt-5.4 压缩,然后等待更新
有问题一定是版本不够新
Conversation state | OpenAI API
Learn how to manage conversation state during a model interaction with the OpenAI API.
https://zhuanlan.zhihu.com/p/2019807681553146393
--【拾伍】--: apparition:
因为远端压缩靠 previous_response_id 还原整个上下文
远程压缩必须要这个值嘛 previous_response_id
我让codex看了一下,我现在这个方法似乎没传这个参数
--【拾陆】--:
诶 这个previous_response_id是不是普通的responses的呀,remote compact似乎还是传整个上下文?或许是因为远端用的其他特训模型所以也不会公用缓存了?
--【拾柒】--:
巧了。我也这么干!
by the way 。 这二十字限制,老友们怎么破线!

