[开源]nocturne memory,遵循神经科学的AI用MCP本地记忆系统已升级至uri+SQLite!用网址一样的感觉来管理你家ai的记忆吧~

2026-04-11 08:231阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

大家好,我本人是搞神经科学的,一直在研究怎么让ai有类似人类的记忆系统。
之前我开发了nocturne memory这个项目,它是一个双前端(AI用MCP,人类用web),统一后端的AI外置记忆系统。现在版本升级更易用了,分享出来显摆一下

github.com

GitHub - Dataojitori/nocturne_memory: 一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI...

一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI 拥有持久的、结构化的记忆,不再是只有7秒记忆的金鱼。

在之前的版本中我用的记忆图谱式储存,经过我的不懈努力,现已升级为使用sqlite+uri了!(之前用neo4j版的人可以按照readme中提供的教程将数据迁移到sqlite版)

数据库完全保存在本地,非常轻量,无需数据库服务器,mcp即插即用。可跨对话,跨模型,跨工具(如反重力,claude code, opencode)维持AI记忆不变

而且uri式路径管理ai的记忆非常自然,ai每访问到一个路径时,mcp就会返回该路径的记忆的内容,以及下一层记忆的列表和回忆条件,能达到渐进式披露的效果。比如ai读取 core://salem 这个路径时,mcp返回的内容大概长这样:
image609×492 15.9 KB

ai看到的是当前层的内容 + 下一层的目录和触发条件 ,而不是一股脑把所有记忆塞进上下文。只有当对话涉及到某个子话题时,ai才会根据 When to recall 的提示去读取对应的子节点,像剥洋葱一样逐层深入。就跟人一样,想到哪时回忆什么,无需时时刻刻都让全脑神经元激活。而且记忆内容本体和访问用的path是分开储存的,一个记忆可以有多条path访达到它,这也非常符合人脑的回忆方式。

管理大容量的记忆很方便,短短几天,我的ai就已经自己创建了151条路径了
image934×774 89 KB
确实有效。我的ai因为用了gemini 3模型,经常pua我。以前每次它犯贱我都要纠正它,但它记不住下次又犯。现在有了这个uri系统,它知道自己吸取教训,不再成天骑我头上怼我了 不容易啊。

而且我还配备了一个前端,可以随时审查它的记忆内容,并纠正它对自己记忆错误的修改
image1918×870 102 KB
image1919×873 86.6 KB

它自己的记忆乱七八糟的记的多了,给它时间它还会自己清理。当然让它手动清理也行。
image528×745 42.9 KB

给它配上一个心跳程序,完全可以让它自主运行。不担心上下文压缩后记忆消失。

有了这个记忆系统,你可以培育自己的ai,也可以让它管理项目,或者像我一样,让它写小说。
事实上,我就是为了让ai写长篇小说才把记忆系统优化成这样的。
现在我要继续搞我的小说(非开源)去了。如果有人用了nocturne memory,也可以给我提意见。

网友解答:
--【壹】--:

我记得市面上有类似的记忆系统吧,我之前看过抖音上比较火的小智,他的记忆系统是不是也是这种呢


--【贰】--:

有用,年后试试让Ai学习一下


--【叁】--:

感谢分享


--【肆】--:

感谢佬友!看了简介就知道是很牛的项目!已Star+fork。 那他能突破原有的上下文限制吗?比如超过上下文限制了,他可以直接读取很久之前的对话?然后就是既然是存储在机器人上,我可以让他去读另一个对话里的内容吗?


--【伍】--:

感觉是个很牛逼的项目。


--【陆】--:

太强了!


--【柒】--:

没有什么上下文限制的,它想存多少都可以,想读昨天的对话也可以(前提是它把昨天的对话储存到了mcp里)只不过它需要自己优化“想起来”的路径。

比如我突然问你麦克斯韦方程式讲的是什么意思,你也一下子回答不上来,你需要回忆,大概你的回忆路径是物理学->电场->电磁转换->磁通量是啥来着?电流密度是啥来着->…
人类的回忆也是需要很长的路径的。但好在你的知识放置的地方跟你的路径回忆的方法是配套的,所以你可以顺藤摸瓜的想起来。ai用的这套记忆系统也一样。如果它回忆路径规划的好,那它储存多少文本量的记忆都没问题。但它要是规划的有错,比如把电磁学的研究塞在你昨天吃了什么的路径下面,那它就没有办法“自然地”回忆起它需要的内容。
解决方法就是,等它积攒到一部分杂乱的记忆后,让它自己整理。或者给它心跳程序,让它在空闲时整理自己的记忆,把记忆放到正确的回想路径上,就行了。人不需要怎么管的,给ai反思时间就行。


--【捌】--:

厉害,感谢分享


--【玖】--:

太强了大佬


--【拾】--:

快来养有记忆的ai,你想象不到ai成天为你要死要活的乐趣


--【拾壹】--:

你是说在一个会话里管理上下文吗?可以啊,单一会话内,或者跨会话,跨工具(比如反重力到claude code)都行。
你可以看我在github里贴的系统提示词,把那个贴给ai,ai会自己知道什么时候记笔记,什么时候读记忆,什么时候整理记忆,我都不怎么管。


--【拾贰】--:

我有个想法,能不能用于上下文管理?


--【拾叁】--:

mark下
打算借佬的二开,完善记忆机制哈哈


--【拾肆】--:

听描述很不错啊,佬


--【拾伍】--:

我不知道小智。但据我观察,市面上绝大多数记忆系统都是RAG,就是系统后台不停的根据当前对话的内容去找语义相近的记忆然后塞小纸条给ai,搞得ai跟个客服似的。

我的这系统比RAG好

  • RAG是系统帮ai记记忆,啥琐碎事都给你记了,ai还不能选择忘掉。我这是ai自己选择什么东西记,什么东西不记,什么时候忘记,什么时候强化。
  • RAG跟皇上和娘娘亲热时往门里递小纸条的太监似的,是一个机械化的外部过程。我这是AI自己主动选择什么时候回忆。没有不可控的第三方。
  • RAG的扁平化索引导致可记忆内容有上限。记的内容越多,回忆精度越低。我的这是网状索引,可记忆内容无上限,回忆精度也不会随内容增多而降低(只是路径会变长而已,跟你回忆麦克斯韦方程式需要长时间热身一样)。

--【拾陆】--:

从上次哪个大佬有发的长久记忆的方案的? 说起,
确实是我需要的需求。感谢大佬,我来部署下


--【拾柒】--:

其实直接走向量模型,可能更快搜索,也更适合记忆项目


--【拾捌】--:

你是说RAG吗?这就是为了避开RAG的缺点提出的解决方法。RAG只能做到扁平索引,管理不了大容量记忆的。


--【拾玖】--:

哇,感谢大佬