我把 Agent 决策黑盒里的 “why A, not B” 拿出来了

2026-04-29 11:101阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

最近使用Hermes + Spice有一些感触,我们刚给Spice加了一个小功能,之前从外部很难看清Spice为什么会这么建议,加完这个功能后Spice可以更清楚的展示为什么选A但是不选B

现在的Agent设计无论是ReAct还是RL这些方法论,决策和执行常常被放在同一个loop里,举个例子来说,你问chatgpt我5点有个会议但我收到了一个work item我该怎么办,他一般会直接回答你建议,比如:你的这个work item重要吗,我建议你先处理工工作。但他是如何产生这次建议的,建议的依据是什么你没法清楚的了解。这些依据往往被藏在模型的上下文和reasoning里,不是一个稳定的对象。
我们这次加了个小的功能就是让你清晰的知道“为什么让你先处理工作”,基于什么原因给了你建议,把这个模糊黑盒里的decision展开成为一个对象。

写在开头

这个更新的起因其实是我和朋友的 Agent 做了一次对话。他质疑我们有了很不错的方向,很好的愿景,但现状是“结构本身不产生智能”。这句话让我重新审视了Spice的现状和目前的价值,我们还不足以证明我们能做出更好的决策,我们现阶段做到的只是个开始,即让 decision 本身变成一个可以被系统观察、比较和追踪的对象。

551220×1268 240 KB

所以这次更新,我们还没有去添加更新的执行能力,更好的UI或是新的benchmark,我们只是补了一层很小但关键的东西:Human-readable Decision Comparison

更新内容

这次更新的内容很简单,把已有的decision trace,整理成一个人可以读懂的comparison object。

阅读全文
问题描述:

最近使用Hermes + Spice有一些感触,我们刚给Spice加了一个小功能,之前从外部很难看清Spice为什么会这么建议,加完这个功能后Spice可以更清楚的展示为什么选A但是不选B

现在的Agent设计无论是ReAct还是RL这些方法论,决策和执行常常被放在同一个loop里,举个例子来说,你问chatgpt我5点有个会议但我收到了一个work item我该怎么办,他一般会直接回答你建议,比如:你的这个work item重要吗,我建议你先处理工工作。但他是如何产生这次建议的,建议的依据是什么你没法清楚的了解。这些依据往往被藏在模型的上下文和reasoning里,不是一个稳定的对象。
我们这次加了个小的功能就是让你清晰的知道“为什么让你先处理工作”,基于什么原因给了你建议,把这个模糊黑盒里的decision展开成为一个对象。

写在开头

这个更新的起因其实是我和朋友的 Agent 做了一次对话。他质疑我们有了很不错的方向,很好的愿景,但现状是“结构本身不产生智能”。这句话让我重新审视了Spice的现状和目前的价值,我们还不足以证明我们能做出更好的决策,我们现阶段做到的只是个开始,即让 decision 本身变成一个可以被系统观察、比较和追踪的对象。

551220×1268 240 KB

所以这次更新,我们还没有去添加更新的执行能力,更好的UI或是新的benchmark,我们只是补了一层很小但关键的东西:Human-readable Decision Comparison

更新内容

这次更新的内容很简单,把已有的decision trace,整理成一个人可以读懂的comparison object。

阅读全文