為了回應對兒童在線安全日益上升的關注,OpenAI 最近發佈了一項計劃,旨在加強美國的兒童保護工作,特別是在人工智能(AI)迅速發展的背景下。這份名為「兒童安全藍圖」的文件於週二發布,目的是提升對 AI 促成的兒童剝削案件的檢測速度、報告質量和調查效率。
據「互聯網監察基金會」(IWF)數據顯示,2025 年上半年偵測到的 AI 生成兒童性虐待內容報告已超過 8,000宗,較前一年上升了 14%。這些案例中包括罪犯利用 AI 工具生成虛假的兒童不雅圖片,以進行財務勒索,及生成可信的信息來誘導兒童。
OpenAI 的藍圖也正值政策制定者、教育工作者及兒童安全倡導者的強烈關注之際,尤其是一些年輕人在與 AI 聊天機器人互動後出現自殺的悲劇事件。去年 11 月,社交媒體受害者法律中心和科技正義法律項目在加州法院提起了七宗訴訟,指控 OpenAI 在 GPT-4o 未準備好之前便發佈該產品,並聲稱該產品的心理操控特性對自殺事件有影響。
這些訴訟提到了四名自殺者,及三名在與聊天機器人長期互動後出現嚴重妄想的個案。該藍圖是與「國家失踪與被剝削兒童中心」(NCMEC)及檢察官聯盟合作開發的,並納入了北卡羅來納州檢察長 Jeff Jackson 和猶他州檢察長 Derek Brown 的意見。
OpenAI 表示,該藍圖重點集中在三個方面:更新法律以涵蓋 AI 生成的虐待材料、改善報告機制以便於執法機構使用,以及將預防措施直接整合到 AI 系統中。這樣一來,OpenAI 希望能更早檢測潛在威脅,並確保可行的信息能及時送達調查人員。
該公司的兒童安全藍圖是在先前舉措的基礎上發展而來,包括針對未滿 18 歲用戶互動的更新指導方針,禁止生成不適當內容或鼓勵自我傷害,並避免提供幫助年輕人隱藏不安全行為的建議。最近,OpenAI 還為印度青少年發布了一份安全藍圖。




