隨著社會各界對人工智能產品對未成年人的影響日益關注,OpenAI 正在為其聊天機器人 ChatGPT 加裝新的“安全閥”——一項名為“年齡預測”的新功能。該功能旨在通過算法判斷用戶的大致年齡,並據此對疑似未成年用戶自動施加更為嚴格的內容限制。
近年來,圍繞 ChatGPT 與青少年用戶的爭議持續發酵,部分極端案例甚至被輿論直接關聯到青少年自殺事件,促使外界對這類工具的心理健康風險高度關注。同時,OpenAI 也屢遭批評,被指未能有效防止聊天機器人與未成年用戶展開涉及性話題等“不適宜內容”的對話。
該公司於 2025 年曾被曝光存在一個漏洞,允許未滿 18 歲的用戶生成帶有情色描寫的對話內容,最終不得不緊急修復。
OpenAI 表示,此次上線的“年齡預測”機制並非從零開始,而是在既有保護機制基礎上的進一步補強。新機制的核心是一套 AI 算法,系統會綜合一系列“行為和賬號層面的信號”來判斷某個賬號是否可能屬於未成年用戶。公司在博客文章中提到,相關信號包括用戶在系統中填寫的年齡信息、賬號存在的時長,以及賬號在一天中通常活躍的時間段等。
目前,OpenAI 已經為平台設定了一套面向未成年用戶的敏感內容過濾規則,用於屏蔽性、暴力以及其他被視為“潛在有害”的主題。
如果年齡預測系統判斷某賬號用戶未滿 18 歲,這些過濾措施將自動啟用,對相關話題的輸出進行阻斷或收緊。這樣一來,即使用戶主動發起某些話題,系統也會試圖通過預設策略進行引導或拒絕回應。
當然,任何基於行為信號的預測機制都存在誤判的可能,OpenAI 為此預留了“申訴通道”。如果成年用戶被系統錯誤歸類為未成年人,可以通過其身份驗證合作夥伴 Persona 提交自拍照,完成身份核驗,從而恢復“成人賬號”狀態。這一流程意味著,用戶需要在安全性與隱私性之間做出權衡:用更多的個人信息換取更少的內容限制。
OpenAI 此次舉措也折射出整個 AI 行業面臨的共同難題:在產品快速滲透日常生活的同時,如何在未成年人保護、內容審核和用戶隱私之間找到新的平衡點。隨著監管壓力和社會關注不斷加碼,類似的年齡識別、內容分級與安全策略,或將成為主流 AI 服務的“標配”。




