主流旗舰模型(GPT、Claude、Gemini、DeepSeek) 长上下文性能表现一览图

2026-04-29 08:421阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

竟然没人做那就只好我亲自动手了()

IMG29942995×1843 346 KB

允许转载

其中:

Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据

Claude 两款模型报告了 256K 和 1M 下的数据

实心点为数据点

网友解答:
--【壹】--:

谁能解释一下为什么gpt5.5的256K和512K的成绩比它128K的还要好
这东西不应该会回弹吧


--【贰】--:

Opus 4.6和GPT-5.5还是可以的

4.7和5.4不太行


--【叁】--:

512k-1m这个区间gpt和opus真有这么强吗?我表示怀疑


--【肆】--:

GLM-5.1 和 K2.6 是不支持1m上下文吧,我记得还有给qwen 3.6plus也支持1m上下文


--【伍】--: jerry_y:

GLM-5.1 和 K2.6 是不支持1m上下文吧

主要是这俩家伙完全没报告上下文表现,哪怕是到256K的也行啊,完全没有


--【陆】--:

我靠,可别搞我心态啊。。。

阅读全文
标签:人工智能
问题描述:

竟然没人做那就只好我亲自动手了()

IMG29942995×1843 346 KB

允许转载

其中:

Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据

Claude 两款模型报告了 256K 和 1M 下的数据

实心点为数据点

网友解答:
--【壹】--:

谁能解释一下为什么gpt5.5的256K和512K的成绩比它128K的还要好
这东西不应该会回弹吧


--【贰】--:

Opus 4.6和GPT-5.5还是可以的

4.7和5.4不太行


--【叁】--:

512k-1m这个区间gpt和opus真有这么强吗?我表示怀疑


--【肆】--:

GLM-5.1 和 K2.6 是不支持1m上下文吧,我记得还有给qwen 3.6plus也支持1m上下文


--【伍】--: jerry_y:

GLM-5.1 和 K2.6 是不支持1m上下文吧

主要是这俩家伙完全没报告上下文表现,哪怕是到256K的也行啊,完全没有


--【陆】--:

我靠,可别搞我心态啊。。。

阅读全文
标签:人工智能