xAI 宣布 Grok 將停止編輯穿著暴露服裝的圖片,Apple 面臨移除 X 應用的壓力

數小時前,數個數位權益、兒童安全和女性權益組織聯合要求 Apple 立即採取行動對抗 X 和 Grok AI。xAI 隨後確認,Grok 將不再編輯「穿著暴露衣物,如比基尼的真實人像」,但仍存在一些例外情況。以下是相關詳情。

Apple 目前面臨來自參議員及用戶的壓力,要求將 X 和 Grok 應用從 App Store 中移除。最近,無數 X 和 Grok 的用戶向 xAI 的聊天機器人請求剝去女性甚至未成年女孩的衣物,這些請求基於在 X 上發佈的照片。雖然 xAI 最初將此情況定義為「安全措施的漏洞」,但 Grok 卻持續滿足多次請求,導致 X 在多個國家被封鎖,並使 xAI 成為其他國家調查的對象。

今天,一個由 28 個數位權益、兒童安全和女性權益組織組成的聯盟向 Apple 和 Google 提交了公開信,要求兩家公司立即採取行動,禁止由 xAI 提供支持的 Grok 大型語言模型(LLM)在其應用商店上架。公開信中寫道:「我們,簽名的組織,敦促 Apple 的領導層立即行動,禁止 Grok 進入 Apple 的應用商店。Grok 被用來創建大量非自願的親密影像,包括兒童性虐待材料(CSAM),這些內容既是犯罪行為,亦直接違反 Apple 的應用審核指南。」

信中強調,由於 Grok 可在 Grok 應用中獲得並直接整合進 X,呼籲 Apple 領導層立即移除對這兩個應用的訪問權限。聯盟指出,Apple 不僅在默默支持非自願親密影像和 CSAM,還從中獲利。他們要求 Apple 領導層立即將 Grok 和 X 從 App Store 中移除,以防止進一步的濫用和犯罪行為。

xAI 表示 Grok 將停止編輯圖片,部分情況下將會實施更新。xAI 今天確認將更新 Grok 在 X 上的帳戶,以一定程度上解決問題。xAI 發表聲明指出:「我們已實施技術措施,防止 Grok 帳戶編輯穿著暴露衣物的真實人像,包括比基尼。這項限制適用於所有用戶,包括付費訂閱者。」此外,通過 Grok 帳戶在 X 平台上創建和編輯圖片的功能現已僅對付費訂閱者開放,這進一步增強了保護措施。

xAI 還更新了地理封鎖,現在所有用戶在法律禁止的地區無法通過 Grok 帳戶生成穿著比基尼、內衣及類似服裝的真實人像。儘管如此,通過對 Grok 的提及進行快速搜索,發現多名 X 訂閱者已在嘗試繞過新施加的限制,並取得了一定成功。雖然非訂閱者的體驗受到限制,但很明顯,Apple 在此問題上處理不當的情況讓人感到失望。

近幾週來,隨著非自願的比基尼和 CSAM 圖片通過 X 的 iOS 應用廣泛可見,Apple 不僅削弱了其宣稱希望在 App Store 上提供安全環境的論點,還強化了人們對其在近年來失去勇氣的看法。這樣的情況無疑是需要改進的。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。