现在订阅版的codex中gpt5.5是不是不支持1m的上下文?
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的
网友解答:--【壹】--:
这是 ChatGPT,不是 codex。
--【贰】--:
IMG202604250949091248×748 85 KB
plus上下文确实不大,gpt说pro的会大一些,有开pro的佬友测试过吗
--【叁】--:
我就是这个感觉,特别是使用high,使用medium都还好
--【肆】--:
260k输入+128k输出,官方API可用1M(但是太贵)
--【伍】--:
应该是只有256k,只能多开session或者compact了…感觉5.5的上下文容量消失的巨快
--【陆】--:
我就是pro,我这边最大也就只能设置256k,上下文这一块确实和opus4.6,4.7有比较大的差距
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--:
--【陆】--:
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的
网友解答:--【壹】--:
这是 ChatGPT,不是 codex。
--【贰】--:
IMG202604250949091248×748 85 KB
plus上下文确实不大,gpt说pro的会大一些,有开pro的佬友测试过吗
--【叁】--:
我就是这个感觉,特别是使用high,使用medium都还好
--【肆】--:
260k输入+128k输出,官方API可用1M(但是太贵)
--【伍】--:
应该是只有256k,只能多开session或者compact了…感觉5.5的上下文容量消失的巨快
--【陆】--:
我就是pro,我这边最大也就只能设置256k,上下文这一块确实和opus4.6,4.7有比较大的差距

