openclaw compacting context 卡很久
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
十几分钟过去了,还在压缩,啥也干不了
模型为gpt-5.2
上下文 contextWindow = 200k
有没有啥好办法,可以快一点
--【壹】--:
请问如何查看、调整这个阈值呢 claude code
--【贰】--:
太满了吧,这种一般你只能让ai自己手动整理下记忆,然后/new了。
我用了一段时间,一开始因为模型问题,自/手动压缩都不行。
所以我每次都是看上下文差不多了手动让他整理记忆,然后切换模型手动压缩或者直接/new。
现在模型可以自动压缩了,就调整下压缩阈值reserveTokensFloor。
我是先72000,后面又调到了128000,这样的话也算节省token.
问题描述:
--【壹】--:
--【贰】--:
十几分钟过去了,还在压缩,啥也干不了
模型为gpt-5.2
上下文 contextWindow = 200k
有没有啥好办法,可以快一点
--【壹】--:
请问如何查看、调整这个阈值呢 claude code
--【贰】--:
太满了吧,这种一般你只能让ai自己手动整理下记忆,然后/new了。
我用了一段时间,一开始因为模型问题,自/手动压缩都不行。
所以我每次都是看上下文差不多了手动让他整理记忆,然后切换模型手动压缩或者直接/new。
现在模型可以自动压缩了,就调整下压缩阈值reserveTokensFloor。
我是先72000,后面又调到了128000,这样的话也算节省token.

