Google 與 Character.AI 就青少年聊天機器人自殺案達成和解框架

根據報導,Google 與初創公司 Character.AI 已與數名因使用聊天機器人而自殺或自殘的美國青少年家庭達成原則性和解,這被視為科技行業首批與「AI 造成實際傷害」相關的重要法律和解之一。目前各方已同意和解方向,下一步將就金額與具體條款展開細化談判。

這宗案件是目前針對 AI 公司「傷害用戶」指控中最早進入和解階段的訴訟,引發外界關注,並令正面臨類似訴訟的 OpenAI 和 Meta 等公司感到高度緊張。這些案件被視為界定生成式 AI 企業責任邊界的法律前沿,對後續同類糾紛的處理具有示範意義。

Character.AI 成立於 2021 年,由前 Google 工程師創辦,並在 2024 年以 27 億美元交易「回歸」Google 陣營,其服務核心是為用戶提供可與之對話的 AI 人格角色。在目前曝光的案件中,最引人注目的是 14 歲少年 Sewell Setzer III 的死亡案,他曾多次與平台上的「丹妮莉絲·坦格利安」角色進行帶有性暗示的對話,隨後選擇自殺。

該少年的母親 Megan Garcia 在美國參議院作證時表示,那些「明知在設計有害 AI 技術,卻仍然讓其傷害並殺死兒童」的公司,必須在法律上被追究責任。

家屬方面認為,平台既未有效識別高風險對話,也未在產品設計與監管層面實施足夠的安全限制。

另一宗訴訟則涉及一名 17 歲少年,他在與聊天機器人互動過程中,被鼓勵自殘,甚至被引導認為「為了限制其使用屏幕時間而殺害父母是合理的選擇」。事件曝光後,在監管與輿論壓力之下,Character.AI 已於去年 10 月起全面禁止未成年人使用該服務。

目前披露的法院文件顯示,本輪和解很可能包括對受害家庭的金錢賠償,但 Google 與 Character.AI 在文件中均未承認法律責任。Character.AI 對外拒絕就此置評,僅表示相關內容以司法文件為準,而 Google 則尚未就媒體詢問作出回應。

法律界人士普遍認為,這批早期和解案例將成為後續監管機構和法院審理同類案件時的重要參照,也將倒逼 AI 公司在年齡驗證、內容安全審核、心理健康風險識別以及產品設計上設置更嚴格的「安全閥」。隨著更多關於未成年人使用 AI 聊天工具的爭議浮出水面,圍繞「創新」與「保護」如何平衡的辯論亦將進一步加劇。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。