OpenAI 周四宣佈推出全新功能 Trusted Contact,旨在當對話中出現提及自殘內容時,通知指定的可信任第三方人士。此功能容許成年 ChatGPT 用戶在其帳戶中指定另一人作為可信任聯絡人,例如朋友或家人。若對話可能涉及自殘,OpenAI 現將鼓勵用戶聯絡該聯絡人,並自動向其發送警報,促使其與用戶聯繫。 OpenAI 曾面對來自多名與其聊天機械人對話後自殺人士家屬的訴訟浪潮。
在多宗個案中,家屬指 ChatGPT 鼓勵其親人自殺,甚至協助其策劃。OpenAI 目前結合自動化與人工審核處理潛在有害事件。特定對話觸發詞會警報公司系統察覺自殺意念,隨後轉交人工安全團隊。公司聲稱,每次收到此類通知,事件均由人工審核。「我們致力於在 1 小時內審核這些安全通知,」公司表示。若內部團隊判定情況構成嚴重安全風險,ChatGPT 將向可信任聯絡人發送警報,包括電郵、短訊或應用程式內通知。
Trusted Contact 功能詳情
警報設計簡短,僅鼓勵聯絡人與相關人士聯繫,並不包含討論細節,以保障用戶私隱,公司表示。此 Trusted Contact 功能繼承公司去年 9 月推出的家長監護措施,該措施賦予家長對青少年帳戶的部分監督權,包括接收安全通知,若 OpenAI 系統認為子女面臨「嚴重安全風險」,則通知家長。ChatGPT 亦長期設有自動警報,引導用戶尋求專業健康服務,若對話趨向自殘話題。
關鍵在於,Trusted Contact 為可選功能,即使啟用,任何用戶仍可擁有多个 ChatGPT 帳戶。公司家長控制亦為可選,存在類似限制。「Trusted Contact 是 OpenAI 建構 AI 系統以助人度過艱難時刻的更廣泛努力一部分,」公司在宣佈帖文中寫道。「我們將繼續與臨床醫生、研究員及政策制定者合作,改善 AI 系統對用戶可能經歷困苦時的回應方式。
」
📬 免費訂閱 TechRitual 科技精選
每 3 日由 AI 精選 5 篇最重要香港科技新聞,直送你信箱


