Character.AI 限制未成年人使用 AI 角色聊天功能

Character.AI 正在逐步關閉未滿 18 歲用戶的聊天功能,並推出新的方法來檢測用戶是否為成年人。該公司在週三宣布,未滿 18 歲的用戶將立即被限制進行最多兩小時的「開放式聊天」,而這一限制將在 11 月 25 日之前縮減為完全禁止聊天。

在同一公告中,該公司表示將推出一種新的內部「年齡確認模型」,根據用戶所選擇的聊天角色類型,結合其他網站內或第三方的數據信息來判斷用戶年齡。所有新用戶和現有用戶將通過這一年齡模型進行篩選,被標記為未滿 18 歲的用戶將自動被導向公司去年推出的青少年安全版聊天功能,直至 11 月的截止日期。若成年人被錯誤識別為未成年人,可以向第三方驗證網站 Persona 提供年齡證明,該網站將處理所需的敏感數據,例如展示政府發放的身份證明。

禁令實施後,青少年仍可訪問網站以回顧舊聊天記錄,並使用非聊天功能,例如創建角色以及製作包含角色的視頻、故事和直播。Character.AI 的首席執行官 Karandeep Anand 向 The Verge 表示,用戶在這些功能上花費的時間「占比非常小」,這也是公司限制聊天機器人的原因,因為這是一個「非常大膽的舉措」。

Anand 在接受 The Verge 訪問時表示,該公司自報的用戶中「不足 10%」年齡在 18 歲以下。他補充說,該公司在開始使用新的年齡檢測模型之前,無法獲得「真實數據」。隨著 Character.AI 對未成年用戶實行限制,未成年用戶的數量也隨之下降。他指出:「當我們在年初開始對未滿 18 歲的用戶經驗進行調整時,我們的未成年用戶基數確實減少了,因為這些用戶轉向了其他不那麼安全的平台。」

Character.AI 還因父母提出的錯誤死亡和疏忽、欺詐性商業行為的指控而被起訴,這些父母表示他們的孩子被引導進入了不當或有害的聊天機器人關係。這些訴訟針對該公司,…


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。