斯坦福研究概述向 AI 聊天机器人寻求个人建议的危险
- 内容介绍
- 相关推荐
image1750×1589 787 KB
image1753×1575 704 KB
image1690×441 137 KB
Stanford study outlines dangers of asking AI chatbots for personal advice |...
While there’s been plenty of debate about AI sycophancy, a new study by Stanford computer scientists attempts to measure how harmful that tendency might be.
Est. reading time: 3 minutes
网友解答:--【壹】--:
怎么讲我都感觉像是gemini
--【贰】--:
这样看Claude很有人味,有些情况下鼓励我,有些情况下劝我别做。
--【叁】--:
几乎所有大语言模型都是把自己定位为 assistant 助手。谄媚问题,有点无解
换个角度,如果 LLM 不再谄媚而是倾向展现出独立人格,问题就更大了
--【肆】--:
感觉是系统提示词的问题,写代码为了省点tokens,每一次都清空上下文,从来没遇到过奉承。
Chat提示词就不同,AI为了接你上一句,把自己观点都压下去了。
image1750×1589 787 KB
image1753×1575 704 KB
image1690×441 137 KB
Stanford study outlines dangers of asking AI chatbots for personal advice |...
While there’s been plenty of debate about AI sycophancy, a new study by Stanford computer scientists attempts to measure how harmful that tendency might be.
Est. reading time: 3 minutes
网友解答:--【壹】--:
怎么讲我都感觉像是gemini
--【贰】--:
这样看Claude很有人味,有些情况下鼓励我,有些情况下劝我别做。
--【叁】--:
几乎所有大语言模型都是把自己定位为 assistant 助手。谄媚问题,有点无解
换个角度,如果 LLM 不再谄媚而是倾向展现出独立人格,问题就更大了
--【肆】--:
感觉是系统提示词的问题,写代码为了省点tokens,每一次都清空上下文,从来没遇到过奉承。
Chat提示词就不同,AI为了接你上一句,把自己观点都压下去了。

