女娲 Skill、同事 Skill 最近很火!!
- 内容介绍
- 文章标签
- 相关推荐
女娲 Skill、同事 Skill 最近很火,但其实我们在一年前就已经开始研究角色系统了。越来越多人开始用角色,却很少有人真正搞清楚它是什么。这期我们想回答三个问题:用角色到底有没有用?角色和 Skill 的本质区别是什么?角色的尽头又在哪里?
先破一个最大的误区:用了角色,AI 没有变聪明。 提示词的本质是信息传递,角色只是一种信息编排方式。它做的事其实是"减法"——让 AI 聚焦在你真正需要的领域,减少信息在传递过程中的损耗。让 AI 变聪明的永远是模型本身,角色真正的价值是让使用者变简单,而不是让 AI 变强。
那 Skill 和角色,到底哪里不一样? Skill 是你主动装载、用完放下的工具,它本身不会变,你换一个场景就换一个 Skill。角色不一样——自我不变,是环境在推着你变。就像你学会了"开车"是技能,但你"成为父亲"不是靠学的,是生了孩子就变了,是被环境被动赋予的。Skill 是你拿起来用的锤子,角色是你在什么位置、以什么身份在干活。两者不是替代关系,而是完全不同层次的东西。
角色的架构,一直在跟着模型能力一起进化。 早期模型能力弱,就得事无巨细地喂给它十套提示词;后来模型强了,三层结构(思维、知识、执行)就够用了;现在用 Gherkin 语法,字更少、结构更清晰、效率更高。背后的规律只有一条:模型越强,你给的信息越少,角色可以越抽象。但抽象不是随意,角色内部的每个设定之间必须有联系,形成逻辑闭环,越抽象的层越决定这个角色的上限。
角色的最高形态,是数字分身。 普通角色帮你处理具体任务,数字分身处理的是更抽象的问题——“你这个人是怎么想的”。它的意义不只是效率,而是让 AI 真正承载你的思维方式,不用每次对话都重新解释自己。从更大的视角来看,每个人都有认识自己的本质需求,而 AI 分身,某种程度上就是这个时代我们认识自身的一种方式。
关于记忆,大模型其实没有记忆——但这没关系。 大模型是无状态的,所有你感觉它"记住了"的东西,都发生在智能体层,是上下文或外部存储在帮你维持。与其等一个完美的记忆方案,不如务实地用好外部存储,通过分工协作来弥补记忆的上限。记忆的真正难点不是存在哪里,而是怎么抽象——哪些值得被记住,哪些应该被遗忘,抽象做得不好,记忆越多反而越混乱。
网友解答:--【壹】--:
IMG_97D2707D6940-11170×2532 529 KB
你是想要这种效果吗?
--【贰】--:
也是压抑太久了,不行,今天晚上就起飞一下吧。
--【叁】--:
哦,说实话佬友没看懂这个东西的意义是什么。
--【肆】--:
回归正题,关于用角色到底有没有用。
我记得忘了哪个OpenAI老大说过
指令式的提词工程不是真准确用法,角色扮演才是LLM的正确姿势吧
--【伍】--:
看到女娲 Skill 我第一时间想到能不能色色,这个人是不是没救了
女娲 Skill、同事 Skill 最近很火,但其实我们在一年前就已经开始研究角色系统了。越来越多人开始用角色,却很少有人真正搞清楚它是什么。这期我们想回答三个问题:用角色到底有没有用?角色和 Skill 的本质区别是什么?角色的尽头又在哪里?
先破一个最大的误区:用了角色,AI 没有变聪明。 提示词的本质是信息传递,角色只是一种信息编排方式。它做的事其实是"减法"——让 AI 聚焦在你真正需要的领域,减少信息在传递过程中的损耗。让 AI 变聪明的永远是模型本身,角色真正的价值是让使用者变简单,而不是让 AI 变强。
那 Skill 和角色,到底哪里不一样? Skill 是你主动装载、用完放下的工具,它本身不会变,你换一个场景就换一个 Skill。角色不一样——自我不变,是环境在推着你变。就像你学会了"开车"是技能,但你"成为父亲"不是靠学的,是生了孩子就变了,是被环境被动赋予的。Skill 是你拿起来用的锤子,角色是你在什么位置、以什么身份在干活。两者不是替代关系,而是完全不同层次的东西。
角色的架构,一直在跟着模型能力一起进化。 早期模型能力弱,就得事无巨细地喂给它十套提示词;后来模型强了,三层结构(思维、知识、执行)就够用了;现在用 Gherkin 语法,字更少、结构更清晰、效率更高。背后的规律只有一条:模型越强,你给的信息越少,角色可以越抽象。但抽象不是随意,角色内部的每个设定之间必须有联系,形成逻辑闭环,越抽象的层越决定这个角色的上限。
角色的最高形态,是数字分身。 普通角色帮你处理具体任务,数字分身处理的是更抽象的问题——“你这个人是怎么想的”。它的意义不只是效率,而是让 AI 真正承载你的思维方式,不用每次对话都重新解释自己。从更大的视角来看,每个人都有认识自己的本质需求,而 AI 分身,某种程度上就是这个时代我们认识自身的一种方式。
关于记忆,大模型其实没有记忆——但这没关系。 大模型是无状态的,所有你感觉它"记住了"的东西,都发生在智能体层,是上下文或外部存储在帮你维持。与其等一个完美的记忆方案,不如务实地用好外部存储,通过分工协作来弥补记忆的上限。记忆的真正难点不是存在哪里,而是怎么抽象——哪些值得被记住,哪些应该被遗忘,抽象做得不好,记忆越多反而越混乱。
网友解答:--【壹】--:
IMG_97D2707D6940-11170×2532 529 KB
你是想要这种效果吗?
--【贰】--:
也是压抑太久了,不行,今天晚上就起飞一下吧。
--【叁】--:
哦,说实话佬友没看懂这个东西的意义是什么。
--【肆】--:
回归正题,关于用角色到底有没有用。
我记得忘了哪个OpenAI老大说过
指令式的提词工程不是真准确用法,角色扮演才是LLM的正确姿势吧
--【伍】--:
看到女娲 Skill 我第一时间想到能不能色色,这个人是不是没救了

