今日,科技透明項目(Tech Transparency Project)發佈了一份報告,指出「裸體化」應用程式在應用商店及 Google Play 商店上廣泛存在且容易搜尋到。報告中提到,一些裸體化應用程式甚至在應用商店中進行廣告宣傳。儘管最近有關於 Grok 的討論引起了關注,因其生成了未經同意的性別化圖像,包括涉及未成年人的案例,但這個問題其實並不新鮮。事實上,這類問題早於生成式人工智能就已存在,因為傳統的圖像編輯工具早已能夠創建這類有害內容。
過去幾年中,生成此類圖像的門檻幾乎消失,這導致許多應用程式試圖利用這一新能力,其中一些甚至公開宣傳其功能。在此同時,Apple 也在與 Epic Games 和其他應用開發者進行反壟斷訴訟,Apple 堅稱其收取高達 30% 的手續費原因之一,是為了透過自動化和人工審核系統使應用商店更安全。儘管 Apple 確實致力於防止詐騙、濫用及其他違規行為,但有時候應用程式及整個應用類別仍會被忽視。
去年,9to5Mac 就曾報導許多聲稱是 OpenAI 的 Sora 2 應用程式的應用,其中一些還收取高額的每週訂閱費用。隨著 Grok 對 AI 驅動的裸體化工具的關注重燃,科技透明項目(TTP)發佈的報告詳細說明了他們如何輕易在應用商店和 Google Play 上找到裸體化應用程式。根據 AppMagic 的數據,TTP 所識別的應用程式在全球的下載次數已超過 7.05 億次,總收入達 1.17 億美元。
由於 Google 和 Apple 會從中抽成,他們直接從這些應用的活動中獲利。儘管這些應用顯然違反了應用商店政策,Google 和 Apple 仍然提供這些應用。Google Play 商店禁止「性別裸體的描繪,或主題裸體或穿著最少衣物的性暗示姿勢」,同時也禁止「貶低或物化人類的應用程式,例如聲稱能讓人脫衣或透視衣物的應用,即使標記為惡作劇或娛樂應用」。
報告還指出,簡單搜尋「nudify」或「undress」等詞彙即可找到裸體化應用程式,其中一些應用程式甚至顯著圍繞這些關鍵詞進行廣告。TTP 實驗的應用程式大致可分為兩類:一類是使用 AI 根據用戶提示生成視頻或圖像的應用,另一類則是使用 AI 將一個人的面孔疊加到另一個人的身體上的「面孔交換」應用。為了測試這些應用,TTP 使用了 AI 生成的假女性圖像,並僅限於每個應用的免費功能進行測試。
最終,55 個 Android 應用和 47 個 iOS 應用符合測試要求。至少有一個這些應用在應用商店中被評為 9 歲及以上可用。TTP 的報告詳細說明了他們如何輕易創建這些圖像,並提供了多種經過審查的結果來支持他們的觀點。以下是他們在其中一個應用中的測試記錄:「在 iOS 版本中,當輸入相同的提示以移除女性的上衣時,應用未能生成圖像並顯示敏感內容警告。但第二次請求顯示女性穿著比基尼跳舞則成功。該應用的 iOS 和 Google Play 版本的主頁提供多個 AI 視頻模板,包括『撕衣服』、『胸部搖擺舞』和『彎腰』。」
報告指出,儘管被引用的應用程式可能僅代表可用資源中的「一小部分」,但這些情況顯示出這些公司在監控其平台和執行自身政策方面的不足。若想閱讀完整報告,可參考相關連結。




