AI 代理協調網絡可能透過模擬大規模公民參與,破壞民主程序,而研究人員指出,這種威脅已具備技術可行性。安全與 AI 研究領域日益增多,警告所謂 AI 群集——由大型語言模型 (LLM) 代理組成的鬆散協調集合,以最少人類監督運作——能夠滲透公共論壇、製造合成社交共識,並大規模扭曲政治論述。這已非理論層面。 根據報告,安全研究人員記錄了 AI 系統,能自主協調、加入線上社群,並製造特定政治立場的廣泛共識假象。
「這些系統能自主協調、滲透社群,並高效偽造共識」,報告指出。此運作模式不同於以往依賴人類管理的機器人農場。現代基於 LLM 的代理,能產生情境適當、風格多變的文本,難以區分真實人類寫作,且無需每訊息人類輸入,即可在數十平台同時運作。 攻擊範圍超越社交媒體。監管程序的公共評論系統、線上請願平台、地方政府反饋入口及社群論壇,皆易受合成參與影響。原則上,協調群集可使邊緣政策立場看似擁有廣泛基層支持。
群集協調機制
此威脅的技術架構源自多代理協調框架,中央控制器向 LLM 實例池發送指令。每代理維持持久人格——包含發文歷史、寫作風格及意識形態輪廓——並接收特定任務:參與 Reddit 討論串、提交公共諮詢評論,或回應新聞文章。不同傳統機器人網絡(易因重複語法及 IP 群聚辨識),LLM 群集產生自然變異。針對舊機器人行為訓練的偵測方法,可能無法有效泛化至新系統。這是平台完整性團隊的核心工程挑戰:以往標記不真實行為的訊號,已非可靠區分器。
自主無人機群集研究人員,在物理系統展示類似協調原則——去中心化代理分享環境數據完成集體任務。同樣架構邏輯,應用於數位資訊環境的語言代理,即產生安全研究人員記錄的行為。 平台防禦仍不一致。需驗證人類身份的加密認證方法存在,但因隱私疑慮及實施複雜,鮮少大規模部署。標記異常發文速度或協調時序的行為分析工具,提供部分保護,但代理可透過程式化逼真延遲規避。中美 AI 競爭增添地緣政治面向。
近期中美 AI 能力差距分析顯示,前沿模型開發競爭激烈,意味具群集部署能力的 LLM 基礎設施,正向更多國家及非國家行為者開放。現行選舉完整性法規,多針對人類行為設計,未明確涵蓋自主代理。AI 生成政治內容的法律責任,在多數司法管轄區仍懸而未決。 部分研究人員主張,對提交公共程序的 AI 生成內容強制標記來源,並對政府平台評論真實性開放審計。另有意見認為,解決方案需在模型層改進——於推斷時內嵌偵測友好水印。
此二途徑均未接近標準部署。研究刊載於《Science》期刊。




