是否有佬友测试过GPT5.4开多少上下文合适
- 内容介绍
- 文章标签
- 相关推荐
GPT5.4是支持1M上下文的,但是众所周知开了1M上下文肯定性能是下降的,因此是否有站内或者站外的大佬测试过,开多少上下文相对更合适些,我现在256K感觉是有点小了,动不动就开始压缩信息。
网友解答:--【壹】--:
196K不是更小了吗?默认不就是256K吗。。
--【贰】--:
有配置的,可以搜搜论坛
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
--【叁】--:
我配了160k,在280k以上工具调用容易出错 更高就忘记做什么了 GPT长文本真不行 宁愿多subagent 主agent还是保留短且精简的ctx不容易出错
--【肆】--:
别超过350K,超过就变蠢了,272K也可以的,总之别太高
--【伍】--:
我配置的400k,但昨天剩10%上下文时,出现了把上一次对话说的问题当成最新问题的情况,不过我这个对话是自动压缩过n轮的,不清楚是否有无干扰,而且就出现一次也不知道是不是巧合
--【陆】--:
意思是到350K就开始压缩,这样性价比高点,对吗?
--【柒】--:
我直接开了196k
--【捌】--:
默认上下文感觉就够了,之前试了1M,一言难尽
--【玖】--:
不管,直上1M, 话说性能下能是指啥?
--【拾】--:
智商高点吧,gpt长文本实在是太不靠谱了我不太敢信他
--【拾壹】--:
好像是的
--【拾贰】--:
所以我们一般配置350K左右压缩,其实都不到就压缩了,这样就没什么问题
GPT5.4是支持1M上下文的,但是众所周知开了1M上下文肯定性能是下降的,因此是否有站内或者站外的大佬测试过,开多少上下文相对更合适些,我现在256K感觉是有点小了,动不动就开始压缩信息。
网友解答:--【壹】--:
196K不是更小了吗?默认不就是256K吗。。
--【贰】--:
有配置的,可以搜搜论坛
model_context_window = 1000000
model_auto_compact_token_limit = 350000
tool_output_token_limit = 40000
--【叁】--:
我配了160k,在280k以上工具调用容易出错 更高就忘记做什么了 GPT长文本真不行 宁愿多subagent 主agent还是保留短且精简的ctx不容易出错
--【肆】--:
别超过350K,超过就变蠢了,272K也可以的,总之别太高
--【伍】--:
我配置的400k,但昨天剩10%上下文时,出现了把上一次对话说的问题当成最新问题的情况,不过我这个对话是自动压缩过n轮的,不清楚是否有无干扰,而且就出现一次也不知道是不是巧合
--【陆】--:
意思是到350K就开始压缩,这样性价比高点,对吗?
--【柒】--:
我直接开了196k
--【捌】--:
默认上下文感觉就够了,之前试了1M,一言难尽
--【玖】--:
不管,直上1M, 话说性能下能是指啥?
--【拾】--:
智商高点吧,gpt长文本实在是太不靠谱了我不太敢信他
--【拾壹】--:
好像是的
--【拾贰】--:
所以我们一般配置350K左右压缩,其实都不到就压缩了,这样就没什么问题

