斯坦福研究概述向 AI 聊天机器人寻求个人建议的危险

2026-04-11 14:491阅读0评论SEO问题
  • 内容介绍
  • 相关推荐
问题描述:

image1750×1589 787 KB
image1753×1575 704 KB
image1690×441 137 KB

TechCrunch – 28 Mar 26

Stanford study outlines dangers of asking AI chatbots for personal advice |...

While there’s been plenty of debate about AI sycophancy, a new study by Stanford computer scientists attempts to measure how harmful that tendency might be.

Est. reading time: 3 minutes

网友解答:
--【壹】--:

怎么讲我都感觉像是gemini​


--【贰】--:

这样看Claude很有人味,有些情况下鼓励我,有些情况下劝我别做。


--【叁】--:

几乎所有大语言模型都是把自己定位为 assistant 助手。谄媚问题,有点无解

换个角度,如果 LLM 不再谄媚而是倾向展现出独立人格,问题就更大了


--【肆】--:

感觉是系统提示词的问题,写代码为了省点tokens,每一次都清空上下文,从来没遇到过奉承。
Chat提示词就不同,AI为了接你上一句,把自己观点都压下去了。


--【伍】--:

claude opus 确实还蛮可以,我之前用gemini做面试模拟 我说不知道都还在鼓励我 然后我把模拟记录发给opus 还是蛮客观地指出了问题


--【陆】--:

用gpt5系列不就行了,都是臭脸