是否有佬友测试过GPT5.4开多少上下文合适

2026-04-11 15:301阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

GPT5.4是支持1M上下文的,但是众所周知开了1M上下文肯定性能是下降的,因此是否有站内或者站外的大佬测试过,开多少上下文相对更合适些,我现在256K感觉是有点小了,动不动就开始压缩信息。

网友解答:
--【壹】--:

196K不是更小了吗?默认不就是256K吗。。


--【贰】--:

有配置的,可以搜搜论坛

model_context_window = 1000000 model_auto_compact_token_limit = 350000 tool_output_token_limit = 40000


--【叁】--:

我配了160k,在280k以上工具调用容易出错 更高就忘记做什么了 GPT长文本真不行 宁愿多subagent 主agent还是保留短且精简的ctx不容易出错


--【肆】--:

别超过350K,超过就变蠢了,272K也可以的,总之别太高


--【伍】--:

我配置的400k,但昨天剩10%上下文时,出现了把上一次对话说的问题当成最新问题的情况,不过我这个对话是自动压缩过n轮的,不清楚是否有无干扰,而且就出现一次也不知道是不是巧合


--【陆】--:

意思是到350K就开始压缩,这样性价比高点,对吗?


--【柒】--:

我直接开了196k


--【捌】--:

默认上下文感觉就够了,之前试了1M,一言难尽


--【玖】--:

不管,直上1M, 话说性能下能是指啥?


--【拾】--:

智商高点吧,gpt长文本实在是太不靠谱了我不太敢信他


--【拾壹】--:

好像是的


--【拾贰】--:

所以我们一般配置350K左右压缩,其实都不到就压缩了,这样就没什么问题

标签:人工智能
问题描述:

GPT5.4是支持1M上下文的,但是众所周知开了1M上下文肯定性能是下降的,因此是否有站内或者站外的大佬测试过,开多少上下文相对更合适些,我现在256K感觉是有点小了,动不动就开始压缩信息。

网友解答:
--【壹】--:

196K不是更小了吗?默认不就是256K吗。。


--【贰】--:

有配置的,可以搜搜论坛

model_context_window = 1000000 model_auto_compact_token_limit = 350000 tool_output_token_limit = 40000


--【叁】--:

我配了160k,在280k以上工具调用容易出错 更高就忘记做什么了 GPT长文本真不行 宁愿多subagent 主agent还是保留短且精简的ctx不容易出错


--【肆】--:

别超过350K,超过就变蠢了,272K也可以的,总之别太高


--【伍】--:

我配置的400k,但昨天剩10%上下文时,出现了把上一次对话说的问题当成最新问题的情况,不过我这个对话是自动压缩过n轮的,不清楚是否有无干扰,而且就出现一次也不知道是不是巧合


--【陆】--:

意思是到350K就开始压缩,这样性价比高点,对吗?


--【柒】--:

我直接开了196k


--【捌】--:

默认上下文感觉就够了,之前试了1M,一言难尽


--【玖】--:

不管,直上1M, 话说性能下能是指啥?


--【拾】--:

智商高点吧,gpt长文本实在是太不靠谱了我不太敢信他


--【拾壹】--:

好像是的


--【拾贰】--:

所以我们一般配置350K左右压缩,其实都不到就压缩了,这样就没什么问题

标签:人工智能