Grok AI 生成露骨圖片引發法國政府指控違法傳播色情內容

本周,X/Twitter 平台上引起廣泛關注的帖子涉及 Grok AI 生成大量露骨圖片的事件。Grok AI 在 X 平台上活躍,根據用戶的要求執行操作,因此不少用戶要求該 AI 把某些照片中的衣物剝離。由於 X 賬戶的回覆內容是公開可見的,用戶只需前往 Grok AI 的主頁,即可查看生成的圖片與回覆,這些內容令不少人直呼「辣眼睛」。

這些圖片中包含了埃隆·Elon Musk的裸露照片以及大量其他人的裸露圖片,甚至還有未成年人的裸露照片。在大多數國家或地區,涉及未成年人的色情內容都是嚴重的犯罪行為。負責生成這些圖片的 Grok AI 推出的 Grok Imagine 圖像生成模型,起初缺乏針對性愛及深度偽造技術的安全保障。

該模型於 2025 年 8 月推出時,用戶便可生成不適合在工作場所查看的內容 (NSFW) 圖片。

然而,xAI 的反應似乎不夠迅速。在收到大量用戶反饋後,該公司才發帖表示正在考慮加強安全措施。該公司表示,個別情況下用戶被要求提供並收到描述未成年人衣著暴露的 AI 圖片,團隊已經發現安全措施存在漏洞,並正在緊急修復。此外,團隊也考慮進一步加強安全措施。根據 xAI 的可接受使用政策,明確禁止用戶以色情方式描繪人物肖像,但這並不一定包括僅帶有性暗示的內容。儘管政策本身確實禁止對兒童進行性化或剝削,但顯然 xAI 的安全政策未能跟上形勢的變化。

目前,法國政府已經開始指控 Grok AI 在未經用戶同意的情況下生成並傳播明顯違法的色情內容,並聲稱 xAI 和 X/Twitter 可能違反了歐盟的數字服務法,該法規要求平台降低非法內容傳播的風險。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。