感觉大多数LLM的黄金上下文都在200k-400k

2026-04-13 12:301阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

基本上市面上自称1M上下文的LLM在500K后注意力就都不太够了

网友解答:
--【壹】--:

个人感觉,opus4.6到250k以上就开始不行了,疯狂忘记前面的内容,指令遵循也开始变很差,反而gpt好很多。连续两周高强度用opus4.6得出来的个人体感


--【贰】--:

gemini3.1pro我感觉到90k就傻了


--【叁】--:

具体技术我不懂,但是应该是用了什么工程上的方法拓展了一下上下文,所以说和原生上下文体验差距比较大


--【肆】--:

自信点,根本不到500K


--【伍】--:

难怪 A\ 发文章说 GPT 的 1M 上下文水分很大


--【陆】--:

有测试或者理论依据吗


--【柒】--:

2.5 pro注意力还是比较惊人的,特别是刚出来的时候。3 pro就是纯纯反向升级


--【捌】--:

最大上限设在400k刚好 多了也费token


--【玖】--:

看起来2.5是超常发挥了,之前的2也是垃得很


--【拾】--:

5.4我建议400K以内,如果有约束性强的需求用270K


--【拾壹】--:

gemini注意力在这些中也是比较离谱的


--【拾贰】--:

那这么说来这 1M 上下文相比之前 200K 提升很小? 是不是开了 1M 之后反而注意力不集中?


--【拾叁】--:

实则只有64k注意力


--【拾肆】--:

qwen 3.5 plus 1M在 150k就飘了,GPT 200以上我都怕他们胡说八道,还是150-200安全


--【拾伍】--:

有没有佬友分享下 claude code 里的 Opus 4.6 和 codex 里的 GPT 5.4 上下文长度设置成什么比较合适? 是直接开 1M , 还是只开 500K 比较好?


--【拾陆】--:

问下佬 claude code 怎么设置上下文长度呢

标签:人工智能
问题描述:

基本上市面上自称1M上下文的LLM在500K后注意力就都不太够了

网友解答:
--【壹】--:

个人感觉,opus4.6到250k以上就开始不行了,疯狂忘记前面的内容,指令遵循也开始变很差,反而gpt好很多。连续两周高强度用opus4.6得出来的个人体感


--【贰】--:

gemini3.1pro我感觉到90k就傻了


--【叁】--:

具体技术我不懂,但是应该是用了什么工程上的方法拓展了一下上下文,所以说和原生上下文体验差距比较大


--【肆】--:

自信点,根本不到500K


--【伍】--:

难怪 A\ 发文章说 GPT 的 1M 上下文水分很大


--【陆】--:

有测试或者理论依据吗


--【柒】--:

2.5 pro注意力还是比较惊人的,特别是刚出来的时候。3 pro就是纯纯反向升级


--【捌】--:

最大上限设在400k刚好 多了也费token


--【玖】--:

看起来2.5是超常发挥了,之前的2也是垃得很


--【拾】--:

5.4我建议400K以内,如果有约束性强的需求用270K


--【拾壹】--:

gemini注意力在这些中也是比较离谱的


--【拾贰】--:

那这么说来这 1M 上下文相比之前 200K 提升很小? 是不是开了 1M 之后反而注意力不集中?


--【拾叁】--:

实则只有64k注意力


--【拾肆】--:

qwen 3.5 plus 1M在 150k就飘了,GPT 200以上我都怕他们胡说八道,还是150-200安全


--【拾伍】--:

有没有佬友分享下 claude code 里的 Opus 4.6 和 codex 里的 GPT 5.4 上下文长度设置成什么比较合适? 是直接开 1M , 还是只开 500K 比较好?


--【拾陆】--:

问下佬 claude code 怎么设置上下文长度呢

标签:人工智能