突然感受到大模型时代沉淀个人知识库的必要性

2026-04-29 08:042阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

题主是名大四学生,借着实习在公司做毕设。今天在公司上班整理毕设相关创新点和材料时,发现现在的 Agent(我用的是 opencode + ohmyopencode + 白嫖公司的 glm4.7),只要你提供好数据、运行的一些日志,包括完整的代码,把调研任务布置下去,就能帮你很好地搜集全信息并整理出来。虽然 glm4.7 还是有些笨,但配合对话里的 GPT5.4 规划需要收集哪些具体信息,再让它去收集,几乎就能覆盖所有这类工作,做好整理。

在公司和在家里的体验很不一样

这和我在家里的工作体验是截然不同的,因为公司保密原因,代码无法带出,在家时的描述和整理往往带有遗漏与幻觉。很多 AI 能整理出的点,却因为自己口头回忆而无法覆盖,根本原因还是输入的缺失。

于是突然觉得,如果有一个完美的记忆系统、知识系统供 AI 使用,那么很多问题一下就不需要人为解决了,可以专注在更有创造力、更有挑战性的任务上。

这似乎也和最近爆火的龙虾有点联系

个人理解,龙虾除了接入社交软件的亮点,另一个特点就是其记忆系统做得不错,用户的经验沉淀下来后,无需反复强调,从自己的记忆宫殿里搜寻抽取,就能让 AI 复用,按自己的经验执行任务。

为什么 AI 时代,个人经验 / 知识的沉淀必要性大大提升

我想是因为大模型掌握着各个领域的先验知识,虽然无法做到顶尖,但相对普通人来说,对我们不熟悉的领域,它们就是专家。这也就意味着信息差。在通用任务上,大模型表现得必然比我们更好。

最近做的工作也和私域知识有关。我们的代码、数据、经验,遇到的问题、解法,就是我们的私域知识,也是我们相较于大模型的信息差。将这些私域知识组织起来交给它们,相当于让各领域的专家处理各种情况再汇总,自然无往而不利。

但从技术上看,好像也还没有很好解决

于是萌生了建设个人知识库的想法,但从技术上来看,目前 RAG 技术也并非万能。上下文膨胀和全量注入反而会产生幻觉,现在兴起的 skill 通过渐进式披露解决了上下文注入的问题,却也没有解决 RAG 检索准确率的问题。

阅读全文
问题描述:

题主是名大四学生,借着实习在公司做毕设。今天在公司上班整理毕设相关创新点和材料时,发现现在的 Agent(我用的是 opencode + ohmyopencode + 白嫖公司的 glm4.7),只要你提供好数据、运行的一些日志,包括完整的代码,把调研任务布置下去,就能帮你很好地搜集全信息并整理出来。虽然 glm4.7 还是有些笨,但配合对话里的 GPT5.4 规划需要收集哪些具体信息,再让它去收集,几乎就能覆盖所有这类工作,做好整理。

在公司和在家里的体验很不一样

这和我在家里的工作体验是截然不同的,因为公司保密原因,代码无法带出,在家时的描述和整理往往带有遗漏与幻觉。很多 AI 能整理出的点,却因为自己口头回忆而无法覆盖,根本原因还是输入的缺失。

于是突然觉得,如果有一个完美的记忆系统、知识系统供 AI 使用,那么很多问题一下就不需要人为解决了,可以专注在更有创造力、更有挑战性的任务上。

这似乎也和最近爆火的龙虾有点联系

个人理解,龙虾除了接入社交软件的亮点,另一个特点就是其记忆系统做得不错,用户的经验沉淀下来后,无需反复强调,从自己的记忆宫殿里搜寻抽取,就能让 AI 复用,按自己的经验执行任务。

为什么 AI 时代,个人经验 / 知识的沉淀必要性大大提升

我想是因为大模型掌握着各个领域的先验知识,虽然无法做到顶尖,但相对普通人来说,对我们不熟悉的领域,它们就是专家。这也就意味着信息差。在通用任务上,大模型表现得必然比我们更好。

最近做的工作也和私域知识有关。我们的代码、数据、经验,遇到的问题、解法,就是我们的私域知识,也是我们相较于大模型的信息差。将这些私域知识组织起来交给它们,相当于让各领域的专家处理各种情况再汇总,自然无往而不利。

但从技术上看,好像也还没有很好解决

于是萌生了建设个人知识库的想法,但从技术上来看,目前 RAG 技术也并非万能。上下文膨胀和全量注入反而会产生幻觉,现在兴起的 skill 通过渐进式披露解决了上下文注入的问题,却也没有解决 RAG 检索准确率的问题。

阅读全文