為了回應日益增加的網上兒童安全關注,OpenAI 發佈了一項計劃,以加強美國的兒童保護工作,特別是在人工智能迅猛發展的背景下。這份名為「兒童安全藍圖」的計劃於週二發布,旨在促進對 AI 相關兒童剝削案件的更快檢測、更好報告和更有效調查。
「兒童安全藍圖」的整體目標是應對與人工智能進步有關的兒童性剝削事件的驚人上升。根據互聯網監察基金會(IWF)的數據,在 2025 年上半年,檢測到的 AI 生成兒童性虐待內容的報告已超過 8,000 例,比前一年增加了 14%。這些報告包括罪犯利用 AI 工具生成假冒的兒童露骨圖片以進行經濟勒索,以及生成讓人信服的訊息以進行性誘拐。
OpenAI 的藍圖發布同時,政策制定者、教育工作者和兒童安全倡導者對此也提出了更多監察,尤其是在一些年輕人因與 AI 聊天機器人互動而自殺的事件引起關注之際。去年十一月,社交媒體受害者法律中心和科技正義法律項目在加州州法院提起七宗訴訟,指控 OpenAI 在 GPT-4o 尚未準備好時就已發佈。訴訟聲稱該產品的心理操控特性助長了錯誤自殺和協助自殺的情況。
此外,這些訴訟還提及四名因自殺而死亡的個體,以及三名在與聊天機器人進行長時間互動後出現嚴重、危及生命的妄想患者。這份藍圖是與失踪和被剝削兒童國家中心(NCMEC)及全國總檢察長聯盟共同開發的,並得到北卡羅來納州總檢察長 Jeff Jackson 和猶他州總檢察長 Derek Brown 的反饋。
根據 OpenAI 的說法,這份藍圖專注於三個方面:更新立法以涵蓋 AI 生成的虐待材料,完善對執法機構的報告機制,以及將預防性保障直接整合到 AI 系統中。透過這些措施,OpenAI 不僅希望能夠更早檢測潛在威脅,還希望確保可行的信息能夠及時傳遞給調查人員。
OpenAI 的新兒童安全藍圖也建立在之前的舉措之上,包括更新對18歲以下用戶的互動指引,禁止生成不當內容或鼓勵自殘,並避免提供幫助年輕人隱藏不安全行為的建議。該公司最近還為印度青少年發布了安全藍圖。




