【說明】使用 AI 時,如何進行數據保護?預防及建議

神經網絡逐漸滲透到我們生活的每一個領域:從大數據分析、語音合成和圖像創建,到控制自動駕駛車輛和飛機。在 2024 年,Tesla 增加了對自動駕駛的神經網絡支持,AI 長期以來一直被用於無人機表演,以在天空中形成各種形狀和 QR 碼,市場營銷人員和設計師使用 AI 生成插圖和文本。

在 2022 年底 ChatGPT 發佈後及其流行,許多公司積極開發基於 GPT 模型的服務。隨著各種服務和基於 AI 的機器人,神經網絡已經變得對廣泛用戶可及。但如果不遵循信息安全規則,使用這些服務和神經網絡會涉及某些風險。讓我們來談談這些風險。

使用神經網絡的風險

由於 GPT 聊天的發現,許多人感到的興奮已經被謹慎所取代。隨著如此多基於語言模型的免費和付費服務,用戶注意到聊天機器人可能提供不可靠或有害的信息。特別危險的是有關健康、營養和財務、武器製造、毒品分發等的錯誤信息。

此外,神經網絡越來越強大,最新版本可以創造出極其逼真的假冒,合成語音或視頻。詐騙者利用這些功能通過偽造來自熟人的消息和電話以及與名人的視頻來欺騙受害者。

主要威脅在於許多用戶普遍信任神經網絡和聊天機器人。被準確性和客觀性的光環所包圍,人們忘記了神經網絡可以處理虛構事實,提供錯誤信息並通常得出錯誤結論。這已經多次被證明會發生錯誤。如果詢問愚蠢問題,損害將是最小的。但如果使用聊天機器人解決財務或醫療問題,後果可能是毀滅性的。此外,通常要從神經網絡獲取答案,需要提供某些數據。

一個大問題是這些數據之後會發生什麼。沒有人保證您在查詢中包含的有關您的信息不會隨後出現在某個暗網上或成為複雜網絡釣魚攻擊的基礎。

在 2024 年 3 月,Offensive AI Lab 的漏洞獵人找到了一種方法來解密和讀取攔截的響應,這得益於 ChatGPT 和 Microsoft Copilot 的數據加密功能。無論 OpenAI 多快修補這一漏洞,這都是一個很好的例子,說明惡意行為者如何利用 API 漏洞竊取數據,包括密碼或公司信息。此外,這些漏洞可以用來對系統進行 DDoS 攻擊並繞過保護。

對 AI 的攻擊有幾種類型,了解它們之間的區別非常重要。例如,逃避攻擊(修改輸入數據)可能是最常見的。如果模型需要輸入數據來工作,則可以適當修改以干擾 AI。另一方面,數據中毒攻擊是長期的。AI 模型中的木馬即使在重新訓練後也會保留。所有這些都可以組合成對抗性攻擊——一種欺騙神經網絡產生不正確結果的方法。

神經網絡尚未受到攻擊、數據偽造和惡意目的干擾的保護,因此用戶在使用聊天機器人時應保持警惕並遵循某些規則。

預防措施和建議

大型語言模型的技術正在迅速發展,深入我們的生活並獲得更多用戶。為了保護自己和數據免受潛在威脅,在使用神經網絡時遵循一些規則:

– 不要與聊天機器人分享機密信息;
– 從可靠來源下載神經網絡應用和服務;
– 驗證聊天機器人提供的信息。

此外,使用公共神經網絡時的主要建議是不要假設與它的對話是私密的。最好避免提問中包含有關您或您公司的任何私人信息。例外情況是如果您正在使用位於您環境中的孤立神經網絡實例,並且您的公司負責該實例。

還要檢查與神經網絡互動的服務。您在消息應用中遇到的未知渠道,承諾免費使用所有知名 LLM 模型,絕對不應信任。

使用神經網絡的公司應格外謹慎。惡意行為者對企業數據的興趣更高,他們首先尋找敏感的組織信息。

保護免受網絡威脅的最佳方法是為員工提供持續的網絡安全和 AI 培訓。這是任何工作流程中的必需品。通過培訓,可以提高專業人員的技能,從而減少超過 70% 的攻擊。

還應採取額外措施加強公司的整體 IT 安全性。首先,您需要開發改進的 AI 訓練算法,考慮其漏洞,這將使模型的可靠性提高 87%。還需要對神經網絡進行「訓練」:讓它處理人工創建的網絡攻擊以改善算法。這將有助於減少 84% 的黑客攻擊。此外,必須不斷更新軟件以減少超過 90% 的漏洞。

每個用戶必須理解神經網絡是脆弱的。就像消息應用、郵箱或工作任務計劃一樣——它可以被黑客攻擊或失敗,因此重要的是要有意識地使用它。

日本電話卡推介 / 韓國電話卡推介
一㩒即做:香港網速測試 SpeedTest HK