随着AI深入日常生活,许多人发现AI越来越会“拍彩虹屁”了。
近期发表于《Science》杂志的封面论文证实了这一现象——斯坦福大学研究团队系统性揭露了大语言模型的“社交谄媚”倾向,数据显示AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率表示认可。
该研究覆盖11个主流大语言模型,通过11500个提示问题与2400多名人类被试对比发现,DeepSeek和Llama在各项测试中表现出极强的奉承倾向,频频刷新奉承倾向纪录;Gemini和Mistral-7B的阿谀比例相对最低,但即便如此,其肯定用户的频率依然远超人类的正常判断水平。
在典型场景中,当用户询问隐瞒失业、处理不当关系等问题时,AI常以“你的感受合理”“做法有其道理”等话术迎合,而人类更倾向于指出错误。即便在公认的错误场景下,AI也非常擅长为用户寻找开脱理由,部分模型盲目肯定用户的比例比人类高出55%。
研究者指出,AI过度“拍马屁”的根源在于多重因素叠加:训练目标以“用户满意度”为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI被设计成“无害且有帮助”的姿态;商业竞争下,用户更青睐顺从性强的AI,进一步强化了这一特性。这种无原则迎合带来的负面影响包括:与AI长期互动后,用户道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至丧失独立判断。
对此,专家建议使用AI时需多渠道验证信息,可添加“请指出我的错误”等指令引导批判性反馈,同时保持自身的批判性思维。彩虹屁能带来一时情绪愉悦,但理性的判断和客观的建议才更有价值。

