【开源】你的 AI 会失忆,Cortex 不会

2026-04-13 13:201阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

之前测试了各种ai记忆增强
mem0的saas,qmd的本地小模型等等

但是感觉都不合适,比如:

mem0等saas版本

免费额度一般都不多,而且数据在别人那里感觉不怎么安心
比如我的openclaw跑在家里服务器,本身内网是安全的但是记忆放在saas的话就怪怪的
用了本地版,感觉本地版功能还不是很完善,看得出来这些重心还是在云服务saas付费版本

qmd

这种小模型虽然纯cpu可以跑,但是冷启动时间和推理时间和速度太难受了,恰巧我家里的服务器和云服务器都是linux的没有显卡的环境,搜索一次记忆17秒有时候甚至2-30秒,对话太难受了

然后,就自己搓认为适合的外挂记忆实现方式

Cortex - 拟人化持久记忆外挂

我给取的名字,然后也报名了claude那个开源项目比赛,
【各位佬路过随手点点star吧虽然5000star估计很难。】
Github:Cottex-你的AI会失忆,cortex不会

关键词:【持久记忆】【可控记忆容量】【agent自我记忆升级】【拟人化记忆生命周期循环】【记忆关系多跳推理】【云端+本地多模型支持】【低api成本】【全能可视化管理面板】【简单易用多渠道接入支持】

支持:agent mcp , openclaw记忆插件(通过会话自动hook无感接入~)以及 rest api

我理想的agent是和朋友或者员工一样,可以有长期的记忆。而且记忆对于他和我的对话或交互起到积极的影响。
大多数人以为的agent记忆是把所有事情记录下来,recall的时候搜索就可以了。其实单纯这样远远不够,数据量只增不减数据量庞大会造成,recall检索效率低下,记忆噪声越来越多,数据质量越来越低等等

AI普遍难点和希望解决的:

0.
没有持久化的记忆:现在claude也可以开启记忆了,但是还是相对羸弱。openclaw则是md可读化文本记忆。以上通常都是靠agent主动记,主动找,非常不稳定,而且不持久。
1.
局限于上下文:现在上下文压缩,或/new开启新会话会丢失很多记忆
2.
局限于memory.md文件长度:现在memory.md文件越来越沉重,使用也越来越“累”
3.
局限于塞入对话的memory长度限制:现在如果希望ai的记忆“正确”且丰富,要塞整片整片的memory内容,上下文小号和token消耗的超级快。
4.
“记”的准:现在靠agent主动记,非常随机。同时所有记忆只分为记了和没记,使用频率,重要性分析,未来情景预测,记忆关系推理等都没有。
5.
“找”的准:现在靠agent主动找,记忆找回粗糙且质量十分不稳定。
6.
"不灵性“:现在的记忆太死板,缺少点“灵性”,比如半个月前我提过海鲜过敏,现在agent推荐餐厅的时候我希望他会避开海鲜,而不是只根据我提出选餐厅的价格和位置去推荐。

7.
“记忆自我进化”:人类的记忆是会变化的,比如一件事情今天说完你的记忆清晰度是非常完整,如果一周没提,你可能记忆完整度有所下降,但如果有人和你谈论了这个记忆,那这个记忆的完成度和重要度会得到刷新,当前大多数agent记忆都无法做到像人类一样进行记忆的生命周期管理和进化。

Cortex的特色

三层记忆生命周期

记忆不只是新增一条记录——它们活着

  • 第一层:工作 → 核心:高频访问或高价值的记忆自动升级
  • 第二层:核心 → 归档:长期未用的记忆衰退、压缩归档
  • 第三层:归档 → 核心:压缩后的记忆在需要时回归
  • 时间衰退 + 读取刷新 + 访问频率 = 有机的记忆行为
    image1684×354 32.6 KB

混合搜索 + 多级排序

image1282×298 29.6 KB
image2626×1798 327 KB

知识图谱 (Neo4j)

记忆之间自动形成关联。Cortex 构建知识图谱。
不仅仅可以从dashboard可视化查看自己的记忆关系,每次recall记忆关系会自动进行3跳推理
image786×268 17.6 KB

image880×644 23 KB
image1318×828 41.4 KB

智能提取 (SIEVE)

  • 20 种记忆分类:身份、偏好、约束、目标、技能、关系……
  • 批量去重:防止 “我喜欢咖啡” 变成 50 条记忆
  • 智能更新:偏好变更是更新,不是新增
  • 实体关系:自动提取知识图谱边

image1208×302 34.8 KB
image2602×676 84.5 KB

image2514×1346 232 KB
image2100×1714 289 KB

智能生命周期管理 (RECICLE)

  • 自动记忆升级:根据记忆分数对记忆自动升降级
  • 批量清理:根据记忆生命周期自动清理低分数无使用的无效记忆
  • 自动压缩:记忆方块达到容量上限后自动压缩,进一步进行记忆提纯,杜绝记忆无限增长
  • 修正反馈:自动进行记忆版本迭代,用户手动回滚记忆版本及记忆修正进行提取质量反馈,提取能力自成长优化

image2568×1788 328 KB

当前还有很多要继续完善,我会长期维护和更新,如果能给你带来帮助我很开心!
更希望借助平台号召更多厉害的佬加入进来,我们可以打造一个出自linuxdo的超级记忆体。
欢迎大家积极pr积极提issue,走过路过别忘了点个star!

Github:Cottex-你的AI会失忆,cortex不会

网友解答:
--【壹】--:

是的,正在使劲蹬,让他改


--【贰】--:

如果是群聊没有隔离和白名单那记忆不是错乱了


--【叁】--:

明天会更新一下记忆recall逻辑优化的版本


--【肆】--:

之前用过claude-mem,不知道佬你的这个项目咋样,明天我试试,用这个项目的话需不需要修改一下 claude.md呢?如果不修改的情况下,claude新开的会话他怎么知道他有什么记忆可以用,要不就是我在提示词里面强制让他先读取一次这个mcp?


--【伍】--:

好像有点强。

期待!非常期待!


--【陆】--:

昨晚一个通宵 大更新!


--【柒】--:

感谢大佬了


--【捌】--:

从多agent协作上来讲的话,和你搞的这个还是很搭配的,cortex支持多agent。当你的多agentos 里面每个agent都接入了cortex记忆后 能力应该更强!


--【玖】--:

咦,佬这个项目我竟然 start 过?


--【拾】--:

star走一走 ~厚颜无耻的求 哈哈哈


--【拾壹】--:

哈哈哈 有机会体验一下提提问题


--【拾贰】--:

看着不错,star了


--【拾叁】--:

claude
通过mcp接入,会话结束hook。

openclaw
通过openclaw插件接入,agent_end hook
(btw openclaw这个hook不生效bug还是我在写cortex的时候发现去github提了才修复,所以之前都没人用这个hook加载记忆吗哈哈)

默认
(2处记忆费token但是可以不丢失以前的记忆)

都是会话结束的时候进行hook,所以如果你什么都不做,记忆会进行补充。对话前会收到claude.ai的记忆+cortex搜索加重排序取出来排名靠前的回忆,agent会融合回复你,所以是记忆加强。

独立
(信赖cortex,单一记忆高效,且噪声小精准,而且省token,但是新安装cortex里面没有以前的记忆。ps:可以导出记忆导入cortex)

如果你在claude.ai设置中关闭了claude记忆,
或者在openclaw中让他修改memory方式为只使用cortex(目前openclaw官方代码中memory backend当前只支持本地的memory或qmd,但是你可以开启cortex后直接告诉龙虾改为只使用cortex)


--【拾肆】--:

期待大佬更新


--【拾伍】--:

可以用在openclaw上面吗


--【拾陆】--:

哈哈哈哈,肯定肯定,还在搭建自己的记忆系统呢


--【拾柒】--:

除了 Claw 都用的 MCP 接口,那不还是要主模型次次手动调用而不能自动召回?这样不会把模型注意力都吸引到管理记忆上吗?


--【拾捌】--:

厉害厉害


--【拾玖】--:

1000126678.jpg1042×2000 265 KB
我让我的龙虾解析了下

好了,合体开始

问题描述:

之前测试了各种ai记忆增强
mem0的saas,qmd的本地小模型等等

但是感觉都不合适,比如:

mem0等saas版本

免费额度一般都不多,而且数据在别人那里感觉不怎么安心
比如我的openclaw跑在家里服务器,本身内网是安全的但是记忆放在saas的话就怪怪的
用了本地版,感觉本地版功能还不是很完善,看得出来这些重心还是在云服务saas付费版本

qmd

这种小模型虽然纯cpu可以跑,但是冷启动时间和推理时间和速度太难受了,恰巧我家里的服务器和云服务器都是linux的没有显卡的环境,搜索一次记忆17秒有时候甚至2-30秒,对话太难受了

然后,就自己搓认为适合的外挂记忆实现方式

Cortex - 拟人化持久记忆外挂

我给取的名字,然后也报名了claude那个开源项目比赛,
【各位佬路过随手点点star吧虽然5000star估计很难。】
Github:Cottex-你的AI会失忆,cortex不会

关键词:【持久记忆】【可控记忆容量】【agent自我记忆升级】【拟人化记忆生命周期循环】【记忆关系多跳推理】【云端+本地多模型支持】【低api成本】【全能可视化管理面板】【简单易用多渠道接入支持】

支持:agent mcp , openclaw记忆插件(通过会话自动hook无感接入~)以及 rest api

我理想的agent是和朋友或者员工一样,可以有长期的记忆。而且记忆对于他和我的对话或交互起到积极的影响。
大多数人以为的agent记忆是把所有事情记录下来,recall的时候搜索就可以了。其实单纯这样远远不够,数据量只增不减数据量庞大会造成,recall检索效率低下,记忆噪声越来越多,数据质量越来越低等等

AI普遍难点和希望解决的:

0.
没有持久化的记忆:现在claude也可以开启记忆了,但是还是相对羸弱。openclaw则是md可读化文本记忆。以上通常都是靠agent主动记,主动找,非常不稳定,而且不持久。
1.
局限于上下文:现在上下文压缩,或/new开启新会话会丢失很多记忆
2.
局限于memory.md文件长度:现在memory.md文件越来越沉重,使用也越来越“累”
3.
局限于塞入对话的memory长度限制:现在如果希望ai的记忆“正确”且丰富,要塞整片整片的memory内容,上下文小号和token消耗的超级快。
4.
“记”的准:现在靠agent主动记,非常随机。同时所有记忆只分为记了和没记,使用频率,重要性分析,未来情景预测,记忆关系推理等都没有。
5.
“找”的准:现在靠agent主动找,记忆找回粗糙且质量十分不稳定。
6.
"不灵性“:现在的记忆太死板,缺少点“灵性”,比如半个月前我提过海鲜过敏,现在agent推荐餐厅的时候我希望他会避开海鲜,而不是只根据我提出选餐厅的价格和位置去推荐。

7.
“记忆自我进化”:人类的记忆是会变化的,比如一件事情今天说完你的记忆清晰度是非常完整,如果一周没提,你可能记忆完整度有所下降,但如果有人和你谈论了这个记忆,那这个记忆的完成度和重要度会得到刷新,当前大多数agent记忆都无法做到像人类一样进行记忆的生命周期管理和进化。

Cortex的特色

三层记忆生命周期

记忆不只是新增一条记录——它们活着

  • 第一层:工作 → 核心:高频访问或高价值的记忆自动升级
  • 第二层:核心 → 归档:长期未用的记忆衰退、压缩归档
  • 第三层:归档 → 核心:压缩后的记忆在需要时回归
  • 时间衰退 + 读取刷新 + 访问频率 = 有机的记忆行为
    image1684×354 32.6 KB

混合搜索 + 多级排序

image1282×298 29.6 KB
image2626×1798 327 KB

知识图谱 (Neo4j)

记忆之间自动形成关联。Cortex 构建知识图谱。
不仅仅可以从dashboard可视化查看自己的记忆关系,每次recall记忆关系会自动进行3跳推理
image786×268 17.6 KB

image880×644 23 KB
image1318×828 41.4 KB

智能提取 (SIEVE)

  • 20 种记忆分类:身份、偏好、约束、目标、技能、关系……
  • 批量去重:防止 “我喜欢咖啡” 变成 50 条记忆
  • 智能更新:偏好变更是更新,不是新增
  • 实体关系:自动提取知识图谱边

image1208×302 34.8 KB
image2602×676 84.5 KB

image2514×1346 232 KB
image2100×1714 289 KB

智能生命周期管理 (RECICLE)

  • 自动记忆升级:根据记忆分数对记忆自动升降级
  • 批量清理:根据记忆生命周期自动清理低分数无使用的无效记忆
  • 自动压缩:记忆方块达到容量上限后自动压缩,进一步进行记忆提纯,杜绝记忆无限增长
  • 修正反馈:自动进行记忆版本迭代,用户手动回滚记忆版本及记忆修正进行提取质量反馈,提取能力自成长优化

image2568×1788 328 KB

当前还有很多要继续完善,我会长期维护和更新,如果能给你带来帮助我很开心!
更希望借助平台号召更多厉害的佬加入进来,我们可以打造一个出自linuxdo的超级记忆体。
欢迎大家积极pr积极提issue,走过路过别忘了点个star!

Github:Cottex-你的AI会失忆,cortex不会

网友解答:
--【壹】--:

是的,正在使劲蹬,让他改


--【贰】--:

如果是群聊没有隔离和白名单那记忆不是错乱了


--【叁】--:

明天会更新一下记忆recall逻辑优化的版本


--【肆】--:

之前用过claude-mem,不知道佬你的这个项目咋样,明天我试试,用这个项目的话需不需要修改一下 claude.md呢?如果不修改的情况下,claude新开的会话他怎么知道他有什么记忆可以用,要不就是我在提示词里面强制让他先读取一次这个mcp?


--【伍】--:

好像有点强。

期待!非常期待!


--【陆】--:

昨晚一个通宵 大更新!


--【柒】--:

感谢大佬了


--【捌】--:

从多agent协作上来讲的话,和你搞的这个还是很搭配的,cortex支持多agent。当你的多agentos 里面每个agent都接入了cortex记忆后 能力应该更强!


--【玖】--:

咦,佬这个项目我竟然 start 过?


--【拾】--:

star走一走 ~厚颜无耻的求 哈哈哈


--【拾壹】--:

哈哈哈 有机会体验一下提提问题


--【拾贰】--:

看着不错,star了


--【拾叁】--:

claude
通过mcp接入,会话结束hook。

openclaw
通过openclaw插件接入,agent_end hook
(btw openclaw这个hook不生效bug还是我在写cortex的时候发现去github提了才修复,所以之前都没人用这个hook加载记忆吗哈哈)

默认
(2处记忆费token但是可以不丢失以前的记忆)

都是会话结束的时候进行hook,所以如果你什么都不做,记忆会进行补充。对话前会收到claude.ai的记忆+cortex搜索加重排序取出来排名靠前的回忆,agent会融合回复你,所以是记忆加强。

独立
(信赖cortex,单一记忆高效,且噪声小精准,而且省token,但是新安装cortex里面没有以前的记忆。ps:可以导出记忆导入cortex)

如果你在claude.ai设置中关闭了claude记忆,
或者在openclaw中让他修改memory方式为只使用cortex(目前openclaw官方代码中memory backend当前只支持本地的memory或qmd,但是你可以开启cortex后直接告诉龙虾改为只使用cortex)


--【拾肆】--:

期待大佬更新


--【拾伍】--:

可以用在openclaw上面吗


--【拾陆】--:

哈哈哈哈,肯定肯定,还在搭建自己的记忆系统呢


--【拾柒】--:

除了 Claw 都用的 MCP 接口,那不还是要主模型次次手动调用而不能自动召回?这样不会把模型注意力都吸引到管理记忆上吗?


--【拾捌】--:

厉害厉害


--【拾玖】--:

1000126678.jpg1042×2000 265 KB
我让我的龙虾解析了下

好了,合体开始