现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

2026-04-29 09:581阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的

网友解答:
--【壹】--:

这是 ChatGPT,不是 codex。


--【贰】--:

IMG202604250949091248×748 85 KB
plus上下文确实不大,gpt说pro的会大一些,有开pro的佬友测试过吗


--【叁】--:

我就是这个感觉,特别是使用high,使用medium都还好


--【肆】--:

260k输入+128k输出,官方API可用1M(但是太贵)


--【伍】--:

应该是只有256k,只能多开session或者compact了…感觉5.5的上下文容量消失的巨快


--【陆】--:

我就是pro,我这边最大也就只能设置256k,上下文这一块确实和opus4.6,4.7有比较大的差距

问题描述:

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的

网友解答:
--【壹】--:

这是 ChatGPT,不是 codex。


--【贰】--:

IMG202604250949091248×748 85 KB
plus上下文确实不大,gpt说pro的会大一些,有开pro的佬友测试过吗


--【叁】--:

我就是这个感觉,特别是使用high,使用medium都还好


--【肆】--:

260k输入+128k输出,官方API可用1M(但是太贵)


--【伍】--:

应该是只有256k,只能多开session或者compact了…感觉5.5的上下文容量消失的巨快


--【陆】--:

我就是pro,我这边最大也就只能设置256k,上下文这一块确实和opus4.6,4.7有比较大的差距