深度研究了下,发现Claude 上下文与长期记忆不适合国产ai

2026-04-29 08:441阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现

Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),

Claude cli 的上下文更像一个临时工作台,里面同时堆着:

系统指令 用户当前请求 历史对话 工具定义 工具调用结果 文件片段 项目信息 环境信息 记忆文件 压缩摘要 会话状态 模型需要遵守的行为规则

这些东西最终都会进入同一个窗口。

这个窗口就是模型当前能“看见”的世界。

模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。

它要不停决定:

哪些历史消息还值得保留 哪些工具结果必须留下 哪些文件片段要塞进去 哪些记忆可能相关 哪些内容可以摘要 哪些内容可以丢掉 什么时候必须压缩

这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。

长期记忆看起来有很多层。

1. 静态记忆,用来记录用户偏好、项目背景、长期规则。 2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。 3. 自动提取,用来从对话中抽取值得保留的信息。 4. 跨会话整理,用来把零散记忆合并、剪枝、重写。 5. 它还有团队记忆,用来在多人场景里共享某些知识。

阅读全文
问题描述:

一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现

Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持这个旧范式。 所以claude更适合这套模型,在国产上下文注意没那么集中的用cc反而在一轮轮的压缩后降智(opus4.7也是同理),

Claude cli 的上下文更像一个临时工作台,里面同时堆着:

系统指令 用户当前请求 历史对话 工具定义 工具调用结果 文件片段 项目信息 环境信息 记忆文件 压缩摘要 会话状态 模型需要遵守的行为规则

这些东西最终都会进入同一个窗口。

这个窗口就是模型当前能“看见”的世界。

模型不知道窗口外发生了什么。窗口外的东西如果没有被重新召回、重新摘要、重新拼进 prompt,它对模型来说就不存在。
所以 Claude cli的上下文管理,核心不是“记忆”,而是“窗口资源调度”。

它要不停决定:

哪些历史消息还值得保留 哪些工具结果必须留下 哪些文件片段要塞进去 哪些记忆可能相关 哪些内容可以摘要 哪些内容可以丢掉 什么时候必须压缩

这套系统的目的不是让模型真正拥有长期记忆,而是让模型在有限窗口里尽量不要失忆得太严重。

长期记忆看起来有很多层。

1. 静态记忆,用来记录用户偏好、项目背景、长期规则。 2. 会话记忆,用来总结当前任务进展、关键文件、错误修复、待办事项。 3. 自动提取,用来从对话中抽取值得保留的信息。 4. 跨会话整理,用来把零散记忆合并、剪枝、重写。 5. 它还有团队记忆,用来在多人场景里共享某些知识。

阅读全文