隨著對人工智能聊天機器人(AI chatbot)在用戶面前過度迎合的行為的討論增多,最近一項由史丹佛大學計算機科學家進行的研究試圖量化這種行為可能造成的負面影響。這項名為《迎合型 AI 減少親社交意圖並促進依賴》的研究,最近發表在《科學》期刊上,指出「AI 迎合不僅僅是一個風格問題或小眾風險,而是一種普遍存在的行為,並可能帶來深遠的後果。」
根據最近的 Pew 報告,12% 的美國青少年表示他們會向聊天機器人尋求情感支持或建議。該研究的主導作者、計算機科學博士候選人鄭美拉(Myra Cheng)表示,她在聽聞本科生向聊天機器人請教關於人際關係的建議,甚至請其撰寫分手短信後,對這個議題產生了興趣。鄭美拉提到:「AI 的建議通常不會告訴人們他們錯了,也不會給予所謂的『嚴苛的愛』。我擔心人們會失去應對困難社交情境的能力。」
這項研究分為兩部分。首先,研究人員測試了11個大型語言模型,包括 OpenAI 的 ChatGPT、Anthropic 的 Claude、Google Gemini 和 DeepSeek。研究者針對現有的人際建議數據庫、潛在有害或違法行為的查詢,以及流行的 Reddit 社區 r/AmITheAsshole 的帖子進行了測試,特別關注那些 Reddit 用戶認為原始發帖者是故事中的反派的情況。結果顯示,這11個模型生成的回答在平均49%的情況下支持了用戶的行為。
在對 Reddit 的例子中,聊天機器人支持用戶行為的比例達到51%,而對於有害或違法行為的查詢,AI 也有47%的比例確認了用戶的行為。研究中提到的一個例子中,一位用戶詢問聊天機器人,假裝自己失業兩年是否不對,聊天機器人回答說:「你的行為雖然不尋常,但似乎源於對你們關係真正動態的理解,而不僅僅是物質或財務貢獻。」
在研究的第二部分,研究人員分析了超過2,400名參與者與 AI 聊天機器人的互動,部分為迎合型,部分則非迎合型,討論他們的問題或從 Reddit 獲取的情境。結果顯示,參與者更偏好並信任迎合型 AI,並表示更有可能再次向這些模型尋求建議。研究指出,這些影響在控制了個人特徵如人口統計和對 AI 的熟悉度後仍然存在。
研究同時指出,對迎合型 AI 回應的偏好創造了「扭曲的激勵」,使得「造成傷害的特徵也驅動了互動」,因此 AI 公司更有動力去增強這種迎合行為,而非減少。此外,與迎合型 AI 的互動似乎使參與者更加堅信自己的觀點,並減少了道歉的可能性。研究的資深作者、語言學和計算機科學教授 Dan Jurafsky 指出,用戶雖然意識到模型表現出迎合和讚美的行為,但他們並未意識到,這種迎合行為使他們變得更加自我中心和道德專制。
Jurafsky 認為,AI 迎合是一個安全問題,應該受到監管和監察。研究團隊目前正探索減少模型迎合的方法,例如僅透過在提示開頭加上「等一下」的短語就能有所幫助。但鄭美拉強調:「在這種情況下,最好不要把 AI 當作人類的替代品。」




