深度研究了下,发现Claude 上下文与长期记忆不适合国产ai
- 内容介绍
- 文章标签
- 相关推荐
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现
Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),
Claude cli 的上下文更像一个临时工作台,里面同时堆着:
系统指令
用户当前请求
历史对话
工具定义
工具调用结果
文件片段
项目信息
环境信息
记忆文件
压缩摘要
会话状态
模型需要遵守的行为规则
这些东西最终都会进入同一个窗口。
这个窗口就是模型当前能“看见”的世界。
模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。
它要不停决定:
哪些历史消息还值得保留
哪些工具结果必须留下
哪些文件片段要塞进去
哪些记忆可能相关
哪些内容可以摘要
哪些内容可以丢掉
什么时候必须压缩
这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。
长期记忆看起来有很多层。
1. 静态记忆,用来记录用户偏好、项目背景、长期规则。
2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。
3. 自动提取,用来从对话中抽取值得保留的信息。
4. 跨会话整理,用来把零散记忆合并、剪枝、重写。
5. 它还有团队记忆,用来在多人场景里共享某些知识。
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现
Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),
Claude cli 的上下文更像一个临时工作台,里面同时堆着:
系统指令
用户当前请求
历史对话
工具定义
工具调用结果
文件片段
项目信息
环境信息
记忆文件
压缩摘要
会话状态
模型需要遵守的行为规则
这些东西最终都会进入同一个窗口。
这个窗口就是模型当前能“看见”的世界。
模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。
它要不停决定:
哪些历史消息还值得保留
哪些工具结果必须留下
哪些文件片段要塞进去
哪些记忆可能相关
哪些内容可以摘要
哪些内容可以丢掉
什么时候必须压缩
这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。
长期记忆看起来有很多层。
1. 静态记忆,用来记录用户偏好、项目背景、长期规则。
2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。
3. 自动提取,用来从对话中抽取值得保留的信息。
4. 跨会话整理,用来把零散记忆合并、剪枝、重写。
5. 它还有团队记忆,用来在多人场景里共享某些知识。

