感觉openclaw用久了越来越笨了怎么办

2026-04-29 09:182阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

高强度用openclaw一个月了,把它调教的越来越像我的小助理,同样的事儿做的多了,新的任务不用交代太多背景,他也可以完成的很好。
最近发现,它越来越记不住我给它说过的话了。同样的规则,我跟他强调了很多遍,让他写入记忆,但最终还是会出问题。。。
佬们有没有遇到这种情况,感觉它老年痴呆了。一次又一次的重复强调,我都有点想开除他了。。。有什么办法可以让他记住吗?是我哪儿用错了吗、?

网友解答:
--【壹】--:

不至于吧,我感觉也没多少东西让他记住。。。


--【贰】--:

我感觉Codex也很好用了现在
计划任务,记忆系统啥的。
最重要是原生各种OpenAI官方加成,不像龙虾费力拼接频繁修bug。
Codex和Claude之流后面会越来越强,我猜以后龙虾和爱马仕会被这两个日益完善的底层巨头取代。


--【叁】--:

刚查了下。196行,不到5000字,不知道算是多还是少。。。确实让他记忆了挺多东西的。。


--【肆】--:

巧了,我准备假期研究下GA的。
佬,你魔改了openclaw的代码吗?这样就没法更新了吧。。


--【伍】--:

有道理,我以后多检查一下。不过搞也很累呀,一点也不智能。。。


--【陆】--:

我 Layer 0 的记忆只有四行字,你可能得考虑精简和分层记忆了。或者 qmd 那种外部记忆,只不过你很难期望 agent 能稳定检索外部记忆


--【柒】--:

是不是装的skill还有memory太多了,把上下文占用的太多


--【捌】--:

写入memory,他才能回忆起来吧。上下文多顶多我多花点token。现在它是老忘记,即使我已经让他写入记忆。。。感觉忘性很大。


--【玖】--:

你把放记忆的 markdown 打开看看是不是很大一坨先


--【拾】--:

你让它做事之前压缩下上下文,看看效果如何,有的和你模型也有关系,最近好多都有点降智


--【拾壹】--:

佬说的有道理的,我就是给他设计了一个分层记忆机制。但自从设置了这个机制后,他就有点记不住事儿了。。。我刚看了下它的记忆中有四分之一在介绍这个机制。。。
如果让他执行分层记忆,那分层记忆的规则不用写到它的顶级memory中吗?
佬可以分享一下你的分级记忆整个架构是如何设计的吗?我想学习一下。。。


--【拾贰】--:

上下文太多 还是模型的问题 或许是模型降智了


--【拾叁】--:

我把 lsdefine/GenericAgent 的链接抛给 hermes,让它照着代码改了。你其实也可以直接用 GenericAgent


--【拾肆】--:

你要确认它有没真写入记忆,有时候它说有写入,实际没写入


--【拾伍】--:

不只是多花token,上下文占用多了召回就会变差

标签:人工智能
问题描述:

高强度用openclaw一个月了,把它调教的越来越像我的小助理,同样的事儿做的多了,新的任务不用交代太多背景,他也可以完成的很好。
最近发现,它越来越记不住我给它说过的话了。同样的规则,我跟他强调了很多遍,让他写入记忆,但最终还是会出问题。。。
佬们有没有遇到这种情况,感觉它老年痴呆了。一次又一次的重复强调,我都有点想开除他了。。。有什么办法可以让他记住吗?是我哪儿用错了吗、?

网友解答:
--【壹】--:

不至于吧,我感觉也没多少东西让他记住。。。


--【贰】--:

我感觉Codex也很好用了现在
计划任务,记忆系统啥的。
最重要是原生各种OpenAI官方加成,不像龙虾费力拼接频繁修bug。
Codex和Claude之流后面会越来越强,我猜以后龙虾和爱马仕会被这两个日益完善的底层巨头取代。


--【叁】--:

刚查了下。196行,不到5000字,不知道算是多还是少。。。确实让他记忆了挺多东西的。。


--【肆】--:

巧了,我准备假期研究下GA的。
佬,你魔改了openclaw的代码吗?这样就没法更新了吧。。


--【伍】--:

有道理,我以后多检查一下。不过搞也很累呀,一点也不智能。。。


--【陆】--:

我 Layer 0 的记忆只有四行字,你可能得考虑精简和分层记忆了。或者 qmd 那种外部记忆,只不过你很难期望 agent 能稳定检索外部记忆


--【柒】--:

是不是装的skill还有memory太多了,把上下文占用的太多


--【捌】--:

写入memory,他才能回忆起来吧。上下文多顶多我多花点token。现在它是老忘记,即使我已经让他写入记忆。。。感觉忘性很大。


--【玖】--:

你把放记忆的 markdown 打开看看是不是很大一坨先


--【拾】--:

你让它做事之前压缩下上下文,看看效果如何,有的和你模型也有关系,最近好多都有点降智


--【拾壹】--:

佬说的有道理的,我就是给他设计了一个分层记忆机制。但自从设置了这个机制后,他就有点记不住事儿了。。。我刚看了下它的记忆中有四分之一在介绍这个机制。。。
如果让他执行分层记忆,那分层记忆的规则不用写到它的顶级memory中吗?
佬可以分享一下你的分级记忆整个架构是如何设计的吗?我想学习一下。。。


--【拾贰】--:

上下文太多 还是模型的问题 或许是模型降智了


--【拾叁】--:

我把 lsdefine/GenericAgent 的链接抛给 hermes,让它照着代码改了。你其实也可以直接用 GenericAgent


--【拾肆】--:

你要确认它有没真写入记忆,有时候它说有写入,实际没写入


--【拾伍】--:

不只是多花token,上下文占用多了召回就会变差

标签:人工智能