為了用 ChatGPT,三名 Samsung 員工泄露了敏感數據

表面上看起來,ChatGPT可能是一個對於各種工作任務都很有用的工具。但在你讓聊天機器人總結重要備忘錄或者檢查工作錯誤之前,要記得任何你分享給ChatGPT的東西都可能會被用來訓練系統,甚至可能在它對其他使用者作出回應時出現。這是幾名Samsung員工在據報分享機密信息給聊天機器人之前應該清楚的問題。

根據The Register的報導,Samsung的半導體部門開始允許工程師使用ChatGPT之後,有員工至少三次向其洩漏了機密信息。據報導,其中一名員工向聊天機器人請求檢查敏感的數據庫源代碼是否有錯誤,另一名員工請求代碼優化,第三名員工則將一個錄音會議投入ChatGPT中,讓它生成會議紀錄。

據報導,得知這些安全問題後,Samsung試圖限制員工在ChatGPT中輸入的內容長度,把限制設置在1024個字符(即1KB)以內。該公司還據說正在調查三名相關員工,並正在開發自己的聊天機器人,以防止類似的差錯發生。Engadget已經聯繫了Samsung,希望得到回應。

ChatGPT的使用條款中指出,除非用戶明確選擇退出,否則它會使用用戶的輸入來訓練自己的模型。該聊天機器人的所有者OpenAI建議不要在對話中分享機密信息,因為它“無法從你的歷史記錄中刪除特定的輸入”。在ChatGPT上刪除個人身份信息的唯一方法就是刪除自己的帳戶,這個過程可能會有點複雜。

此文章發佈於 TechRitual 香港