組織越來越多地禁止使用像 ChatGPT 這樣的生成式 A.I. 工具,並引用對私隱、安全和聲譽損害的擔憂。根據 BlackBerry 發佈的一份新報告,其調查的組織中有 66% 表示將禁止在工作場所使用這種臭名昭著的 AI 寫手和其他類似工具,還有 76% 的 IT 決策者認為僱主有權控制員工在工作中可以使用的軟件。此外,69% 實施禁令的組織表示這些禁令將是永久性或長期性的,這是因為這些工具對公司的安全和私隱構成了風險。
然而,存在着一種衝突,因為有一半(54%)的組織也承認像 ChatGPT 這樣的強大 A.I. 可以提高生產力,這要歸功於它能夠比人類更快地完成各種任務的能力。同時,雖然 IT 決策者同意禁止這些工具的權利,但 66% 的人認為這樣的禁令對企業和 BYO 設備來說是「過度控制」。
當考慮將生成式 A.I. 用於網絡安全目的時,情況就不同了。74% 的人贊成出於這個原因使用這些工具,也許是為了對抗攻擊者使用 A.I. ,因為任何人都可以訪問這些工具,甚至那些沒有技術技能的人也可以相對輕鬆地開發和部署惡意軟件。
考慮到像 ChatGPT 這樣的生成式 A.I. 工具所帶來的優勢, BlackBerry 的網絡安全首席技術官 Shishir Singh 建議採取更加謹慎的方法:「在工作場所禁止生成式 A.I. 應用可能會導致許多潛在的商業利益被扼殺。隨着平台成熟和法規生效,組織政策可以引入靈活性。關鍵在於擁有適當的工具,以實現對工作場所應用程式的可見性、監控和管理。」
毫無疑問,公司受到了員工將敏感數據洩漏給 ChatGPT 的故事的影響,尤其是 Samsung 的員工,他們將涉及機密會議和技術數據的資訊輸入到這個大型語言模型中。這些資訊現在存儲在 ChatGPT 的開發者 OpenAI 的伺服器上,這家電子巨頭無法刪除這些資訊。