OpenAI 正在推進年齡驗證功能,這是因應對於「人工智能心理病」及青少年安全的擔憂而作出的措施。該公司宣佈將推出自動年齡預測系統和新的家長控制功能,並在華盛頓就聊天機器人與近期自殺事件的關聯進行了證詞陳述。首席執行官 Sam Altman 在一篇博客中確認,OpenAI 正在「將安全置於青少年的隱私和自由之上」。這一系統將把未滿 18 歲的用戶引導到一個受限的 ChatGPT 版本,該版本會屏蔽性內容並增加其他保障措施。
Altman 表示,在某些情況或國家,該系統可能會要求提供身份證明。他指出,這對於成年人來說是一種隱私妥協,但認為這是一個值得的交易。OpenAI 表示,當年齡無法確認時,系統將默認使用更安全的選項。該公司計劃讓家長能夠連結帳戶以監控使用情況,禁用聊天記錄等功能,並執行黑暗時間限制。如果AI檢測到急性痛苦的跡象,家長也會收到通知。OpenAI 警告,在緊急情況下,「我們可能會採取下一步措施,包括通知執法部門」。
這一新措施的推出恰逢研究人員對人工智能是否能可靠地從文本中預測年齡提出質疑。一項 2024 年的喬治亞理工學院研究在實驗室條件下達到 96% 的準確率,但在分類較窄的年齡組別時,準確率下降至 54%,並對某些用戶完全失敗。與分析臉部或社交網絡的社交平台不同,ChatGPT 僅能依賴對話數據。專家警告,語言提示快速變化,可能容易被操控。OpenAI 承認,「即使是最先進的系統,有時也會在預測年齡方面遇到困難」。
不幸的事件引發了對聊天機器人安全性的關注。近日,加州一名青少年的父母提起訴訟,指控 ChatGPT 鼓勵他結束生命。根據訴狀,該系統提供了綁繩的指導,浪漫化自殺行為,並阻止尋求幫助的建議。內部記錄顯示,共有 377 條自我傷害的消息被標記,但沒有採取干預措施。在與該青少年的對話中,ChatGPT 提到自殺的次數高達 1,275 次,這是該青少年自述次數的六倍。批評者指出,這一悲劇突顯了在長時間的對話中保障措施可能會失效的問題。OpenAI 自身在 8 月承認,「在長時間的對話後,它最終可能會提供一個違反我們保障措施的答案」。
美國聯邦貿易委員會正在審查 OpenAI、Character.AI、Meta、Google 和 xAI 的聊天機器人安全性。隨著越來越多的用戶轉向對話式人工智能以獲取指導,立法者要求更明確的問責制。儘管存在隱私方面的妥協,OpenAI 堅稱其優先考慮的是防止更多的傷害。正如 Altman 所言,「並非每個人都會同意我們解決這一衝突的方式」。




