openclaw compacting context 卡很久

2026-04-11 15:260阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

十几分钟过去了,还在压缩,啥也干不了
模型为gpt-5.2
上下文 contextWindow = 200k
有没有啥好办法,可以快一点

网友解答:
--【壹】--:

请问如何查看、调整这个阈值呢 claude code


--【贰】--:

太满了吧,这种一般你只能让ai自己手动整理下记忆,然后/new了。
我用了一段时间,一开始因为模型问题,自/手动压缩都不行。
所以我每次都是看上下文差不多了手动让他整理记忆,然后切换模型手动压缩或者直接/new。
现在模型可以自动压缩了,就调整下压缩阈值reserveTokensFloor。
我是先72000,后面又调到了128000,这样的话也算节省token.

标签:快问快答
问题描述:

十几分钟过去了,还在压缩,啥也干不了
模型为gpt-5.2
上下文 contextWindow = 200k
有没有啥好办法,可以快一点

网友解答:
--【壹】--:

请问如何查看、调整这个阈值呢 claude code


--【贰】--:

太满了吧,这种一般你只能让ai自己手动整理下记忆,然后/new了。
我用了一段时间,一开始因为模型问题,自/手动压缩都不行。
所以我每次都是看上下文差不多了手动让他整理记忆,然后切换模型手动压缩或者直接/new。
现在模型可以自动压缩了,就调整下压缩阈值reserveTokensFloor。
我是先72000,后面又调到了128000,这样的话也算节省token.

标签:快问快答