claudecode接入glm模型之后很容易满上下文怎么办
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
由于一直使用的是glm的模型,我发现在cc终端对话还没几轮就提示窗口已满,API报错:API Error: The model has reached its context window limit.ow tasks,是不是需要内部配置一些什么呢,想问一下各位佬友们都是怎么配置的
网友解答:--【壹】--:
似乎切换到默认的模型,可以一定程度上解决这个问题。我刚刚试了一下,切换成模型模型后,会自动压缩对话。
--【贰】--:
同问,目前有没有解决办法?claudecode 更新后,似乎只服务于1M模型了,智普估计还是只有200K上下文
问题描述:
--【壹】--:
--【贰】--:
由于一直使用的是glm的模型,我发现在cc终端对话还没几轮就提示窗口已满,API报错:API Error: The model has reached its context window limit.ow tasks,是不是需要内部配置一些什么呢,想问一下各位佬友们都是怎么配置的
网友解答:--【壹】--:
似乎切换到默认的模型,可以一定程度上解决这个问题。我刚刚试了一下,切换成模型模型后,会自动压缩对话。
--【贰】--:
同问,目前有没有解决办法?claudecode 更新后,似乎只服务于1M模型了,智普估计还是只有200K上下文

