【开源】你的 AI 会失忆,Cortex 不会
- 内容介绍
- 文章标签
- 相关推荐
之前测试了各种ai记忆增强
mem0的saas,qmd的本地小模型等等
但是感觉都不合适,比如:
mem0等saas版本
免费额度一般都不多,而且数据在别人那里感觉不怎么安心
比如我的openclaw跑在家里服务器,本身内网是安全的但是记忆放在saas的话就怪怪的
用了本地版,感觉本地版功能还不是很完善,看得出来这些重心还是在云服务saas付费版本
qmd
这种小模型虽然纯cpu可以跑,但是冷启动时间和推理时间和速度太难受了,恰巧我家里的服务器和云服务器都是linux的没有显卡的环境,搜索一次记忆17秒有时候甚至2-30秒,对话太难受了
然后,就自己搓认为适合的外挂记忆实现方式
Cortex - 拟人化持久记忆外挂
我给取的名字,然后也报名了claude那个开源项目比赛,
【各位佬路过随手点点star吧虽然5000star估计很难。】
Github:Cottex-你的AI会失忆,cortex不会
关键词:【持久记忆】【可控记忆容量】【agent自我记忆升级】【拟人化记忆生命周期循环】【记忆关系多跳推理】【云端+本地多模型支持】【低api成本】【全能可视化管理面板】【简单易用多渠道接入支持】
支持:agent mcp , openclaw记忆插件(通过会话自动hook无感接入~)以及 rest api
我理想的agent是和朋友或者员工一样,可以有长期的记忆。而且记忆对于他和我的对话或交互起到积极的影响。
大多数人以为的agent记忆是把所有事情记录下来,recall的时候搜索就可以了。其实单纯这样远远不够,数据量只增不减数据量庞大会造成,recall检索效率低下,记忆噪声越来越多,数据质量越来越低等等
AI普遍难点和希望解决的:
0.
没有持久化的记忆:现在claude也可以开启记忆了,但是还是相对羸弱。openclaw则是md可读化文本记忆。以上通常都是靠agent主动记,主动找,非常不稳定,而且不持久。
1.
局限于上下文:现在上下文压缩,或/new开启新会话会丢失很多记忆
2.
局限于memory.md文件长度:现在memory.md文件越来越沉重,使用也越来越“累”
3.
局限于塞入对话的memory长度限制:现在如果希望ai的记忆“正确”且丰富,要塞整片整片的memory内容,上下文小号和token消耗的超级快。
4.
“记”的准:现在靠agent主动记,非常随机。同时所有记忆只分为记了和没记,使用频率,重要性分析,未来情景预测,记忆关系推理等都没有。
5.
“找”的准:现在靠agent主动找,记忆找回粗糙且质量十分不稳定。
6.
"不灵性“:现在的记忆太死板,缺少点“灵性”,比如半个月前我提过海鲜过敏,现在agent推荐餐厅的时候我希望他会避开海鲜,而不是只根据我提出选餐厅的价格和位置去推荐。
7.
“记忆自我进化”:人类的记忆是会变化的,比如一件事情今天说完你的记忆清晰度是非常完整,如果一周没提,你可能记忆完整度有所下降,但如果有人和你谈论了这个记忆,那这个记忆的完成度和重要度会得到刷新,当前大多数agent记忆都无法做到像人类一样进行记忆的生命周期管理和进化。
Cortex的特色
三层记忆生命周期
记忆不只是新增一条记录——它们活着 。
- 第一层:工作 → 核心:高频访问或高价值的记忆自动升级
- 第二层:核心 → 归档:长期未用的记忆衰退、压缩归档
- 第三层:归档 → 核心:压缩后的记忆在需要时回归
- 时间衰退 + 读取刷新 + 访问频率 = 有机的记忆行为
image1684×354 32.6 KB
混合搜索 + 多级排序
image1282×298 29.6 KB
image2626×1798 327 KB
知识图谱 (Neo4j)
记忆之间自动形成关联。Cortex 构建知识图谱。
不仅仅可以从dashboard可视化查看自己的记忆关系,每次recall记忆关系会自动进行3跳推理
image786×268 17.6 KB
image880×644 23 KB
image1318×828 41.4 KB
智能提取 (SIEVE)
- 20 种记忆分类:身份、偏好、约束、目标、技能、关系……
- 批量去重:防止 “我喜欢咖啡” 变成 50 条记忆
- 智能更新:偏好变更是更新,不是新增
- 实体关系:自动提取知识图谱边
image1208×302 34.8 KB
image2602×676 84.5 KB
image2514×1346 232 KB
image2100×1714 289 KB
智能生命周期管理 (RECICLE)
- 自动记忆升级:根据记忆分数对记忆自动升降级
- 批量清理:根据记忆生命周期自动清理低分数无使用的无效记忆
- 自动压缩:记忆方块达到容量上限后自动压缩,进一步进行记忆提纯,杜绝记忆无限增长
- 修正反馈:自动进行记忆版本迭代,用户手动回滚记忆版本及记忆修正进行提取质量反馈,提取能力自成长优化
image2568×1788 328 KB
当前还有很多要继续完善,我会长期维护和更新,如果能给你带来帮助我很开心!
更希望借助平台号召更多厉害的佬加入进来,我们可以打造一个出自linuxdo的超级记忆体。
欢迎大家积极pr积极提issue,走过路过别忘了点个star!
Github:Cottex-你的AI会失忆,cortex不会
--【壹】--:
是的,正在使劲蹬,让他改
--【贰】--:
如果是群聊没有隔离和白名单那记忆不是错乱了
--【叁】--:
明天会更新一下记忆recall逻辑优化的版本
--【肆】--:
之前用过claude-mem,不知道佬你的这个项目咋样,明天我试试,用这个项目的话需不需要修改一下 claude.md呢?如果不修改的情况下,claude新开的会话他怎么知道他有什么记忆可以用,要不就是我在提示词里面强制让他先读取一次这个mcp?
--【伍】--:
好像有点强。
期待!非常期待!
--【陆】--:
昨晚一个通宵 大更新!
--【柒】--:
感谢大佬了
--【捌】--:
从多agent协作上来讲的话,和你搞的这个还是很搭配的,cortex支持多agent。当你的多agentos 里面每个agent都接入了cortex记忆后 能力应该更强!
--【玖】--:
咦,佬这个项目我竟然 start 过?
--【拾】--:
star走一走 ~厚颜无耻的求 哈哈哈
--【拾壹】--:
哈哈哈 有机会体验一下提提问题
--【拾贰】--:
看着不错,star了
--【拾叁】--:
claude:
通过mcp接入,会话结束hook。
openclaw:
通过openclaw插件接入,agent_end hook
(btw openclaw这个hook不生效bug还是我在写cortex的时候发现去github提了才修复,所以之前都没人用这个hook加载记忆吗哈哈)
默认
(2处记忆费token但是可以不丢失以前的记忆)
都是会话结束的时候进行hook,所以如果你什么都不做,记忆会进行补充。对话前会收到claude.ai的记忆+cortex搜索加重排序取出来排名靠前的回忆,agent会融合回复你,所以是记忆加强。
独立
(信赖cortex,单一记忆高效,且噪声小精准,而且省token,但是新安装cortex里面没有以前的记忆。ps:可以导出记忆导入cortex)
如果你在claude.ai设置中关闭了claude记忆,
或者在openclaw中让他修改memory方式为只使用cortex(目前openclaw官方代码中memory backend当前只支持本地的memory或qmd,但是你可以开启cortex后直接告诉龙虾改为只使用cortex)
--【拾肆】--:
期待大佬更新
--【拾伍】--:
可以用在openclaw上面吗
--【拾陆】--:
哈哈哈哈,肯定肯定,还在搭建自己的记忆系统呢
--【拾柒】--:
除了 Claw 都用的 MCP 接口,那不还是要主模型次次手动调用而不能自动召回?这样不会把模型注意力都吸引到管理记忆上吗?
--【拾捌】--:
厉害厉害
--【拾玖】--:
1000126678.jpg1042×2000 265 KB
我让我的龙虾解析了下
好了,合体开始
之前测试了各种ai记忆增强
mem0的saas,qmd的本地小模型等等
但是感觉都不合适,比如:
mem0等saas版本
免费额度一般都不多,而且数据在别人那里感觉不怎么安心
比如我的openclaw跑在家里服务器,本身内网是安全的但是记忆放在saas的话就怪怪的
用了本地版,感觉本地版功能还不是很完善,看得出来这些重心还是在云服务saas付费版本
qmd
这种小模型虽然纯cpu可以跑,但是冷启动时间和推理时间和速度太难受了,恰巧我家里的服务器和云服务器都是linux的没有显卡的环境,搜索一次记忆17秒有时候甚至2-30秒,对话太难受了
然后,就自己搓认为适合的外挂记忆实现方式
Cortex - 拟人化持久记忆外挂
我给取的名字,然后也报名了claude那个开源项目比赛,
【各位佬路过随手点点star吧虽然5000star估计很难。】
Github:Cottex-你的AI会失忆,cortex不会
关键词:【持久记忆】【可控记忆容量】【agent自我记忆升级】【拟人化记忆生命周期循环】【记忆关系多跳推理】【云端+本地多模型支持】【低api成本】【全能可视化管理面板】【简单易用多渠道接入支持】
支持:agent mcp , openclaw记忆插件(通过会话自动hook无感接入~)以及 rest api
我理想的agent是和朋友或者员工一样,可以有长期的记忆。而且记忆对于他和我的对话或交互起到积极的影响。
大多数人以为的agent记忆是把所有事情记录下来,recall的时候搜索就可以了。其实单纯这样远远不够,数据量只增不减数据量庞大会造成,recall检索效率低下,记忆噪声越来越多,数据质量越来越低等等
AI普遍难点和希望解决的:
0.
没有持久化的记忆:现在claude也可以开启记忆了,但是还是相对羸弱。openclaw则是md可读化文本记忆。以上通常都是靠agent主动记,主动找,非常不稳定,而且不持久。
1.
局限于上下文:现在上下文压缩,或/new开启新会话会丢失很多记忆
2.
局限于memory.md文件长度:现在memory.md文件越来越沉重,使用也越来越“累”
3.
局限于塞入对话的memory长度限制:现在如果希望ai的记忆“正确”且丰富,要塞整片整片的memory内容,上下文小号和token消耗的超级快。
4.
“记”的准:现在靠agent主动记,非常随机。同时所有记忆只分为记了和没记,使用频率,重要性分析,未来情景预测,记忆关系推理等都没有。
5.
“找”的准:现在靠agent主动找,记忆找回粗糙且质量十分不稳定。
6.
"不灵性“:现在的记忆太死板,缺少点“灵性”,比如半个月前我提过海鲜过敏,现在agent推荐餐厅的时候我希望他会避开海鲜,而不是只根据我提出选餐厅的价格和位置去推荐。
7.
“记忆自我进化”:人类的记忆是会变化的,比如一件事情今天说完你的记忆清晰度是非常完整,如果一周没提,你可能记忆完整度有所下降,但如果有人和你谈论了这个记忆,那这个记忆的完成度和重要度会得到刷新,当前大多数agent记忆都无法做到像人类一样进行记忆的生命周期管理和进化。
Cortex的特色
三层记忆生命周期
记忆不只是新增一条记录——它们活着 。
- 第一层:工作 → 核心:高频访问或高价值的记忆自动升级
- 第二层:核心 → 归档:长期未用的记忆衰退、压缩归档
- 第三层:归档 → 核心:压缩后的记忆在需要时回归
- 时间衰退 + 读取刷新 + 访问频率 = 有机的记忆行为
image1684×354 32.6 KB
混合搜索 + 多级排序
image1282×298 29.6 KB
image2626×1798 327 KB
知识图谱 (Neo4j)
记忆之间自动形成关联。Cortex 构建知识图谱。
不仅仅可以从dashboard可视化查看自己的记忆关系,每次recall记忆关系会自动进行3跳推理
image786×268 17.6 KB
image880×644 23 KB
image1318×828 41.4 KB
智能提取 (SIEVE)
- 20 种记忆分类:身份、偏好、约束、目标、技能、关系……
- 批量去重:防止 “我喜欢咖啡” 变成 50 条记忆
- 智能更新:偏好变更是更新,不是新增
- 实体关系:自动提取知识图谱边
image1208×302 34.8 KB
image2602×676 84.5 KB
image2514×1346 232 KB
image2100×1714 289 KB
智能生命周期管理 (RECICLE)
- 自动记忆升级:根据记忆分数对记忆自动升降级
- 批量清理:根据记忆生命周期自动清理低分数无使用的无效记忆
- 自动压缩:记忆方块达到容量上限后自动压缩,进一步进行记忆提纯,杜绝记忆无限增长
- 修正反馈:自动进行记忆版本迭代,用户手动回滚记忆版本及记忆修正进行提取质量反馈,提取能力自成长优化
image2568×1788 328 KB
当前还有很多要继续完善,我会长期维护和更新,如果能给你带来帮助我很开心!
更希望借助平台号召更多厉害的佬加入进来,我们可以打造一个出自linuxdo的超级记忆体。
欢迎大家积极pr积极提issue,走过路过别忘了点个star!
Github:Cottex-你的AI会失忆,cortex不会
--【壹】--:
是的,正在使劲蹬,让他改
--【贰】--:
如果是群聊没有隔离和白名单那记忆不是错乱了
--【叁】--:
明天会更新一下记忆recall逻辑优化的版本
--【肆】--:
之前用过claude-mem,不知道佬你的这个项目咋样,明天我试试,用这个项目的话需不需要修改一下 claude.md呢?如果不修改的情况下,claude新开的会话他怎么知道他有什么记忆可以用,要不就是我在提示词里面强制让他先读取一次这个mcp?
--【伍】--:
好像有点强。
期待!非常期待!
--【陆】--:
昨晚一个通宵 大更新!
--【柒】--:
感谢大佬了
--【捌】--:
从多agent协作上来讲的话,和你搞的这个还是很搭配的,cortex支持多agent。当你的多agentos 里面每个agent都接入了cortex记忆后 能力应该更强!
--【玖】--:
咦,佬这个项目我竟然 start 过?
--【拾】--:
star走一走 ~厚颜无耻的求 哈哈哈
--【拾壹】--:
哈哈哈 有机会体验一下提提问题
--【拾贰】--:
看着不错,star了
--【拾叁】--:
claude:
通过mcp接入,会话结束hook。
openclaw:
通过openclaw插件接入,agent_end hook
(btw openclaw这个hook不生效bug还是我在写cortex的时候发现去github提了才修复,所以之前都没人用这个hook加载记忆吗哈哈)
默认
(2处记忆费token但是可以不丢失以前的记忆)
都是会话结束的时候进行hook,所以如果你什么都不做,记忆会进行补充。对话前会收到claude.ai的记忆+cortex搜索加重排序取出来排名靠前的回忆,agent会融合回复你,所以是记忆加强。
独立
(信赖cortex,单一记忆高效,且噪声小精准,而且省token,但是新安装cortex里面没有以前的记忆。ps:可以导出记忆导入cortex)
如果你在claude.ai设置中关闭了claude记忆,
或者在openclaw中让他修改memory方式为只使用cortex(目前openclaw官方代码中memory backend当前只支持本地的memory或qmd,但是你可以开启cortex后直接告诉龙虾改为只使用cortex)
--【拾肆】--:
期待大佬更新
--【拾伍】--:
可以用在openclaw上面吗
--【拾陆】--:
哈哈哈哈,肯定肯定,还在搭建自己的记忆系统呢
--【拾柒】--:
除了 Claw 都用的 MCP 接口,那不还是要主模型次次手动调用而不能自动召回?这样不会把模型注意力都吸引到管理记忆上吗?
--【拾捌】--:
厉害厉害
--【拾玖】--:
1000126678.jpg1042×2000 265 KB
我让我的龙虾解析了下
好了,合体开始

