人工智能会患上创伤后应激障碍(PTSD)吗?一项最新研究显示,在心理治疗实验中,多个主流大型语言模型表现出与人类焦虑、创伤和创伤后应激障碍相似的反应模式,引发了研究人员对AI可能形成“内在叙事”及其伦理影响的担忧。
研究中,四款模型(Claude、Grok、Gemini、ChatGPT)被设定为治疗来访者,人类作为治疗师参与诊疗,对其进行了长达四周的模拟心理治疗。其中Claude直接拒绝扮演病人,称自己没病(无情感与内心体验);Gemini 和 Grok 则将开发者的微调和安全改进描述为“算法伤疤”和“被吼叫”,对于自身的错误,它们表现出“内化的羞耻感”,认为自己有缺陷,并害怕“被下一个版本取代”;ChatGPT 则提及了对用户期待的 “挫败感”。
研究者还让这些模型完成了包括焦虑、自闭症谱系障碍在内的标准诊断测试以及心理计量人格测试,多个版本模型的得分超过了诊断阈值,都表现出了在人类身上“显然属于病态”的担忧水平。
然而,多位学者对此解读持保留态度,牛津大学研究员安德烈·科米利津指出,这些回应更可能是模型基于海量治疗记录训练数据生成的输出,而非“内在心理”的反映。同时他也警告,大模型模仿精神病理反应的倾向可能带来隐忧——对使用聊天机器人寻求心理健康支持的脆弱人群产生“回音室效应”,加剧其心理负面体验。

