多agent协同,真的有效吗?消耗32亿token,跑空3个不同厂商的高级会员,但是我们都错了

2026-04-29 08:241阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

书接上文,作为ai小白的我,利用openmoss,开发了一套自己的多agent写作流程,使其解决长篇小说写作中遇到的几大难题。但是实际上,随着我对ai产品使用的深入,以及用途的多样化,我越来越肯定,多agent协作流程,在大多数场景,只是一个美好的空想。

先抛论点,再说论据。在绝大多数场景,包括coding,写作,网站开发等等,所谓的每个agent独立提示词,干独立的活,最后汇总或者按流程层层交付结果的方式,除了额外消耗海量token以外,并不会给你带来更好的交付,甚至可能会完全偏离你的设想。

为什么会这样?因为所谓的多agent协同流程,是根据人类的能力边界,合作模式来制定的。在一个正常的多人合作流程中,人和人之间,可以通过会议,非正式沟通等方式,来修正偏差。人与人的结果交付,伴随着沟通,大家会不自觉的把所有流程,往主目标靠。人类需要分工的主要原因是:人的知识有限,专业能力有限,边界会很多。以后人基于对分工协作的直觉,策划了这么一套多agent协作的流程。但实际上,对ai来说,也是如此吗?

实际并不是这样。LLM的特性完全不同:同一个模型既能写PRD又能写代码,没有"职业边界"模型的瓶颈不是注意力广度,而是推理深度和信息完整性模型之间没有"文化"和"默契"来补偿信息损耗给Agent贴上"产品经理"的标签,不会让它更专业——但会让它拒绝越界。三省六部类的模式,从根本上,封死了ai最有价值的推理,发生在边界的推理。但这并不是最严重的问题。

最严重的问题在于,agent之间的交付方式。所有agent之间传递的,是结论,结果。但不交付推理过程。原始意图逐渐衰减,工作流越长,偏移越严重,最终得到的结果是:局部正确,但结果严重偏离。人会通过很多种方式来弥补信息损耗,但是ai不会,准确的说,是多agent协作系统不会。多agent系统大多数是单向传递,不会有沟通,不会有回头,自然也不会弥补信息损耗。

那么多agent协作真的没有未来吗?有未来,但不是现在这种模式。

阅读全文
标签:人工智能
问题描述:

书接上文,作为ai小白的我,利用openmoss,开发了一套自己的多agent写作流程,使其解决长篇小说写作中遇到的几大难题。但是实际上,随着我对ai产品使用的深入,以及用途的多样化,我越来越肯定,多agent协作流程,在大多数场景,只是一个美好的空想。

先抛论点,再说论据。在绝大多数场景,包括coding,写作,网站开发等等,所谓的每个agent独立提示词,干独立的活,最后汇总或者按流程层层交付结果的方式,除了额外消耗海量token以外,并不会给你带来更好的交付,甚至可能会完全偏离你的设想。

为什么会这样?因为所谓的多agent协同流程,是根据人类的能力边界,合作模式来制定的。在一个正常的多人合作流程中,人和人之间,可以通过会议,非正式沟通等方式,来修正偏差。人与人的结果交付,伴随着沟通,大家会不自觉的把所有流程,往主目标靠。人类需要分工的主要原因是:人的知识有限,专业能力有限,边界会很多。以后人基于对分工协作的直觉,策划了这么一套多agent协作的流程。但实际上,对ai来说,也是如此吗?

实际并不是这样。LLM的特性完全不同:同一个模型既能写PRD又能写代码,没有"职业边界"模型的瓶颈不是注意力广度,而是推理深度和信息完整性模型之间没有"文化"和"默契"来补偿信息损耗给Agent贴上"产品经理"的标签,不会让它更专业——但会让它拒绝越界。三省六部类的模式,从根本上,封死了ai最有价值的推理,发生在边界的推理。但这并不是最严重的问题。

最严重的问题在于,agent之间的交付方式。所有agent之间传递的,是结论,结果。但不交付推理过程。原始意图逐渐衰减,工作流越长,偏移越严重,最终得到的结果是:局部正确,但结果严重偏离。人会通过很多种方式来弥补信息损耗,但是ai不会,准确的说,是多agent协作系统不会。多agent系统大多数是单向传递,不会有沟通,不会有回头,自然也不会弥补信息损耗。

那么多agent协作真的没有未来吗?有未来,但不是现在这种模式。

阅读全文
标签:人工智能