一項近期研究發現,約三分之一的 AI 應用程式用戶會與聊天機械人進行深度個人對話。即使並非分享最深刻的恐懼,用戶的查詢和對話仍可能包含大量個人資料。另一項 Stanford 大學研究指出,六大美國 AI 公司均將用戶輸入資料回饋至模型,用於未來訓練,從而潛在威脅用戶私隱。AI 應用程式的標準條款通常授權其使用對話內容作為訓練資料,這可能導致個人資料間接洩露至互聯網。
當前許多 AI 模型允許上傳文件進行分析,文件內容亦可能成為訓練材料,風險進一步加劇。
退出 AI 資料收集選項
各大主流 AI 應用程式均提供退出資料用作訓練的機制,且大多操作簡單迅速。 **Amazon Alexa**:於 iPhone 的 Alexa 應用程式中,點擊螢幕底部三條橫線選單,進入 Alexa Privacy。向下滾動至 Manage Your Alexa Data,再向下至 Help Improve Alexa,將 Use of voice recordings 切換關閉。
**ChatGPT**:於網頁或 Mac 應用程式中,前往 Settings > Data Controls,將 Improve the model for everyone 切換關閉。 **Claude**:於網頁版瀏覽 https://claude.ai/settings/data-privacy-controls,取消勾選 Help improve Claude。
**Gemini**:於網頁版瀏覽 https://myactivity.google.com/product/gemini,將 On 切換至 Off,並取消勾選 Improve Google services with your audio and Gemini Live recordings。 **Meta AI**:該公司以往將退出選項深藏於私隱設定多層中,且曾多次更改路徑。
目前可確認已移除退出選項,用戶僅能依賴公司處理。 **Siri**:Apple 強調私隱,但此選項藏匿頗深。於 iPhone 設定中,開啟 Settings > Privacy & Security,向下滾動至 Analytics & Improvements,再向下至 Improve Siri & Dictation,將其切換關閉。 此外,資料經紀商會從公共記錄收集用戶資訊並出售,用於垃圾郵件或更嚴重的詐騙及身份盜竊。
手動要求刪除耗時龐大,且經紀商可後續重新添加資料。Incogni 等服務可代為處理數百家資料經紀商、族譜網站及社交媒體,持續監測並發出移除請求,包括常被忽略的人名搜尋網站。其 Unlimited 計劃更支援用戶自發現連結的移除處理。
📬 免費訂閱 TechRitual 科技精選
每 3 日由 AI 精選 5 篇最重要香港科技新聞,直送你信箱


