Samsung 禁止員工使用 ChatGPT 類工具

Samsung 在一次嚴重的安全漏洞事件後,禁止員工在職場上使用 ChatGPT 和其他 AI 生成工具。這家 Samsung 告訴員工,他們正在打擊使用 AI 寫手工具的行為,因為最近一些員工使用 ChatGPT 來協助完成他們的任務時,泄露了包括公司源代碼在內的機密數據。 Samsung 表示,他們採取這一行動是為了「創建一個安全的環境」,因為 AI 工具使用的數據被存儲在外部服務器上,這使得像 Samsung 這樣的公司很難確切地知道已經泄露了什麼,存儲在哪裡,如何保護以及如何刪除。

據彭博社報導, Samsung ChatGPT 禁令是因為「總部正在審查安全措施,以創建一個安全的環境,以安全地使用生成式 AI 來提高員工的生產力和效率。然而,在這些措施準備好之前,我們暫時限制了生成式 AI 的使用。」

這些限制將適用於使用 Samsung 公司手機、平板電腦或電腦的任何人,員工還被要求不要使用任何個人設備上傳敏感的商業信息。 Samsung 的備忘錄裡還補充說道:「我們要求您嚴格遵守我們的安全指南,否則可能會導致公司信息的洩漏或破壞,進而導致紀律處分,甚至包括解雇。」

據報導, Samsung 今年早些時候曾遭遇三起員工通過 ChatGPT 洩露敏感信息的事件,這尤其令人擔憂,因為 ChatGPT 保留了用戶輸入數據以進一步訓練自己,這意味著 Samsung 的內部商業機密現在實際上掌握在 OpenAI 手中,而 OpenAI 是該平台背後的公司。

為了應對這些事件, Samsung 據報正在開發自己的內部 AI 服務,供員工使用,但這限制了提示的大小不超過 1024 個字節。

如果您需要編程幫助,請使用最好的 Python IDE。


Sourcetechradar
此文章發佈於 TechRitual 香港