維基百科對生成式人工智能(AI)採取了明確的立場,為編輯如何使用這些工具劃定了界限。該平台的英文版現在禁止貢獻者使用大型語言模型(LLMs)來生成或改寫文章內容。這一舉措反映了對準確性、可靠性和社群驅動知識完整性的日益關注。隨著 AI 工具迅速滲透日常工作流程,從電子郵件到長篇內容,機器生成的文本越來越難以區分於人類撰寫的內容。對於一個以可驗證信息為基礎的平台而言,這一變化帶來了嚴峻的挑戰。
根據新政策,編輯無法依賴 AI 來生成或大幅改寫維基百科文章。該平台認為,這類使用往往與其核心內容標準,特別是在可驗證性和來源方面相衝突。然而,維基百科為此劃定了兩個狹窄的例外。編輯可以使用 AI 工具來完善自己的寫作,類似於語法或風格助手。他們必須在發佈前仔細檢查所有更改。該政策也解釋了為何需要謹慎。LLMs 即使在給予明確指示的情況下,也可能引入微妙的扭曲。它指出,這些模型可能超出使用者的要求,改變文本的含義,使其不再受到所引用來源的支持。
編輯們還可以利用 AI 進行翻譯。在這些情況下,該工具可以生成草稿,但編輯必須精通兩種語言。他們必須在發佈前驗證準確性並修正任何錯誤。該政策反映了在線社群對 AI 快速擴張的普遍抵制。維基百科管理員 Chaotic Enby 將這一舉措視為更大文化變革的一部分。他們表示:「我真誠希望這能引發更廣泛的變革,讓其他平台的社群賦權,並看到這成為用戶決定 AI 是否應該在其社群中受歡迎的草根運動。」
這一決策的過程並不簡單。早期對於全面 AI 規則的提案未能達成共識。根據 Chaotic Enby 的說法,之前針對 LLM 的即時全面社群指導提案因為無法一次性解決複雜的大規模問題而失敗。他們補充道:「關於改變的想法已存在共識,但在改變的實施上並未達成一致。」
儘管新限制的出台,但執行仍然困難。識別 AI 生成的文本並不可靠。維基百科承認,檢測工具滯後於迅速改善的模型。該平台已發佈指導,幫助管理員識別機器撰寫的內容。然而,它也承認,一些人類編輯可能以類似 AI 輸出的方式撰寫內容。這一不確定性提高了錯誤陽性和漏報違規的風險。較少活躍的頁面更容易滑過審核的漏洞。
重要的是,維基百科作為一個獨立社群的網絡運作,英文版的政策並不全球適用。其他版本可能採取不同的做法。例如,西班牙維基百科已經實施了一項更嚴格的規則,完全禁止使用 LLM,包括用於完善和翻譯。隨著 AI 的不斷發展,維基百科的這一決策顯示出其謹慎的態度,旨在保護其可信性,即使人類與機器寫作之間的界限變得越來越難以分辨。




