感觉大多数LLM的黄金上下文都在200k-400k
- 内容介绍
- 文章标签
- 相关推荐
基本上市面上自称1M上下文的LLM在500K后注意力就都不太够了
网友解答:--【壹】--:
个人感觉,opus4.6到250k以上就开始不行了,疯狂忘记前面的内容,指令遵循也开始变很差,反而gpt好很多。连续两周高强度用opus4.6得出来的个人体感
--【贰】--:
gemini3.1pro我感觉到90k就傻了
--【叁】--:
具体技术我不懂,但是应该是用了什么工程上的方法拓展了一下上下文,所以说和原生上下文体验差距比较大
--【肆】--:
自信点,根本不到500K
--【伍】--:
难怪 A\ 发文章说 GPT 的 1M 上下文水分很大
--【陆】--:
有测试或者理论依据吗
--【柒】--:
2.5 pro注意力还是比较惊人的,特别是刚出来的时候。3 pro就是纯纯反向升级
--【捌】--:
最大上限设在400k刚好 多了也费token
--【玖】--:
看起来2.5是超常发挥了,之前的2也是垃得很
--【拾】--:
5.4我建议400K以内,如果有约束性强的需求用270K
--【拾壹】--:
gemini注意力在这些中也是比较离谱的
--【拾贰】--:
那这么说来这 1M 上下文相比之前 200K 提升很小? 是不是开了 1M 之后反而注意力不集中?
--【拾叁】--:
实则只有64k注意力
--【拾肆】--:
qwen 3.5 plus 1M在 150k就飘了,GPT 200以上我都怕他们胡说八道,还是150-200安全
--【拾伍】--:
有没有佬友分享下 claude code 里的 Opus 4.6 和 codex 里的 GPT 5.4 上下文长度设置成什么比较合适? 是直接开 1M , 还是只开 500K 比较好?
--【拾陆】--:
问下佬 claude code 怎么设置上下文长度呢
基本上市面上自称1M上下文的LLM在500K后注意力就都不太够了
网友解答:--【壹】--:
个人感觉,opus4.6到250k以上就开始不行了,疯狂忘记前面的内容,指令遵循也开始变很差,反而gpt好很多。连续两周高强度用opus4.6得出来的个人体感
--【贰】--:
gemini3.1pro我感觉到90k就傻了
--【叁】--:
具体技术我不懂,但是应该是用了什么工程上的方法拓展了一下上下文,所以说和原生上下文体验差距比较大
--【肆】--:
自信点,根本不到500K
--【伍】--:
难怪 A\ 发文章说 GPT 的 1M 上下文水分很大
--【陆】--:
有测试或者理论依据吗
--【柒】--:
2.5 pro注意力还是比较惊人的,特别是刚出来的时候。3 pro就是纯纯反向升级
--【捌】--:
最大上限设在400k刚好 多了也费token
--【玖】--:
看起来2.5是超常发挥了,之前的2也是垃得很
--【拾】--:
5.4我建议400K以内,如果有约束性强的需求用270K
--【拾壹】--:
gemini注意力在这些中也是比较离谱的
--【拾贰】--:
那这么说来这 1M 上下文相比之前 200K 提升很小? 是不是开了 1M 之后反而注意力不集中?
--【拾叁】--:
实则只有64k注意力
--【拾肆】--:
qwen 3.5 plus 1M在 150k就飘了,GPT 200以上我都怕他们胡说八道,还是150-200安全
--【拾伍】--:
有没有佬友分享下 claude code 里的 Opus 4.6 和 codex 里的 GPT 5.4 上下文长度设置成什么比较合适? 是直接开 1M , 还是只开 500K 比较好?
--【拾陆】--:
问下佬 claude code 怎么设置上下文长度呢

