科技透明項目(Tech Transparency Project)發佈的研究顯示,Apple App Store 和 Google Play Store 上仍有應用程式能處理真實圖像,將其變成裸露效果、置入色情影片或轉化為露骨聊天機械人。儘管 Apple 有明確規則禁止此類內容,這些應用仍可輕易搜尋到。 研究使用「nudify」、「undress」、「AI NSFW」及「deepnude」等關鍵字,發現約 40% 相關應用能將女性圖像渲染成裸露或衣著稀少狀態。
App Store 更會提供自動補全建議,引導用戶找到更多類似應用。
Apple 移除部分應用但執法不力
Apple 未對研究發表評論,但研究團隊表示,在分享發現後,Apple 已移除 15 款應用。目前,「nudify」及「undress」搜尋無結果,但「deepnude」仍顯示多款提供服裝或身體轉變的應用。Macworld 未測試這些應用是否能用真實圖像生成 AI 裸體版本。其中一款為 X 平台開發的 Grok AI 聊天機械人,本週有報導指 Apple 曾私下警告其因生成 deepfake 裸像而可能被下架,但 Grok 仍留存 App Store。
此外,App Store 在搜尋時顯示 nudify 應用廣告,違反其廣告政策禁止推廣成人主題或圖像內容。研究亦發現,「Deepnude」搜尋可得數十款能對真人圖像進行 AI 修改的應用。此前,本週又有報導揭露 App Store 上 Ledger Live 及 Freecash 為詐騙應用,前者竊取比特幣帳戶,後者秘密收集用戶資料。
AI 內容聲明:本文由 AI 工具輔助撰寫初稿,經 TechRitual 編輯團隊審閱、修訂及事實查核後發佈。如有任何錯誤或需要更正,歡迎聯絡我們。




