主流旗舰模型(GPT、Claude、Gemini、DeepSeek) 长上下文性能表现一览图
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--: jerry_y:
--【陆】--:
竟然没人做那就只好我亲自动手了()
IMG29942995×1843 346 KB
允许转载
其中:
Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据
Claude 两款模型报告了 256K 和 1M 下的数据
实心点为数据点
网友解答:--【壹】--:
谁能解释一下为什么gpt5.5的256K和512K的成绩比它128K的还要好
这东西不应该会回弹吧
--【贰】--:
Opus 4.6和GPT-5.5还是可以的
4.7和5.4不太行
--【叁】--:
512k-1m这个区间gpt和opus真有这么强吗?我表示怀疑
--【肆】--:
GLM-5.1 和 K2.6 是不支持1m上下文吧,我记得还有给qwen 3.6plus也支持1m上下文
--【伍】--: jerry_y:
GLM-5.1 和 K2.6 是不支持1m上下文吧
主要是这俩家伙完全没报告上下文表现,哪怕是到256K的也行啊,完全没有
--【陆】--:
我靠,可别搞我心态啊。。。
问题描述:
--【壹】--:
--【贰】--:
--【叁】--:
--【肆】--:
--【伍】--: jerry_y:
--【陆】--:
竟然没人做那就只好我亲自动手了()
IMG29942995×1843 346 KB
允许转载
其中:
Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据
Claude 两款模型报告了 256K 和 1M 下的数据
实心点为数据点
网友解答:--【壹】--:
谁能解释一下为什么gpt5.5的256K和512K的成绩比它128K的还要好
这东西不应该会回弹吧
--【贰】--:
Opus 4.6和GPT-5.5还是可以的
4.7和5.4不太行
--【叁】--:
512k-1m这个区间gpt和opus真有这么强吗?我表示怀疑
--【肆】--:
GLM-5.1 和 K2.6 是不支持1m上下文吧,我记得还有给qwen 3.6plus也支持1m上下文
--【伍】--: jerry_y:
GLM-5.1 和 K2.6 是不支持1m上下文吧
主要是这俩家伙完全没报告上下文表现,哪怕是到256K的也行啊,完全没有
--【陆】--:
我靠,可别搞我心态啊。。。

