美國政府 與 Microsoft Google xAI 簽協議 提前測試 AI 模型風險

美國政府正加強對先進人工智能的管控,在模型公開發佈前更早介入評估風險。在一系列新協議中,Microsoft、Google 和 xAI 將授予聯邦官員對其最新 AI 模型的早期存取權。此舉反映華盛頓對前沿系統若未受監管可能助長網路攻擊或軍事濫用的日益擔憂。

早期存取測試

商務部的 AI 標準與創新中心將在部署前評估這些模型。官員旨在及早研究其能力並識別漏洞。此舉建立在 Trump 政府 2025 年承諾與科技公司合作進行國家安全審查的基礎上。協議允許政府研究人員在受控環境下測試系統。公司將提供降低安全保障的模型版本。此設定有助深入探查潛在濫用情境。 Microsoft 表示,將與聯邦科學家合作測試系統「以探查意外行為」,公司聲明如 Reuters 報導。

公司亦將協助開發共享數據集和測試流程。此前,它與英國 AI 安全研究所簽署類似協議。 安全憂慮上升的緊迫性源於強大 AI 系統的出現,包括 Anthropic 的 Mythos 模型。美國官員和企業擔心這些工具可能放大駭客能力,憂慮涵蓋自動化網路攻擊至先進軍事應用。「獨立、嚴格的測量科學對於理解前沿 AI 及其國家安全影響至關重要,」CAISI 主任 Chris Fall 在給 The Journal 的聲明中表示。

(engadget)CAISI 已進行超過 40 次評估,包括對未發佈模型的測試。該機構常使用簡化系統版本發掘隱藏風險。官員相信早期存取能提供預測威脅的關鍵優勢。此倡議亦擴大 2024 年與 OpenAI 和 Anthropic 的早期合作,當時該機構名稱不同並聚焦自願安全標準。 五角大樓擴大 AI 合作。監督推動超出民用機構範圍。五角大樓最近與七家 AI 公司簽署協議,在機密網絡部署工具。

國防部希望在軍事行動中廣泛存取先進能力。值得注意的是,Anthropic 未參與此努力。公司與國防官員在軍事使用保障上發生衝突。此爭議凸顯公司強調安全限制與機構追求操作靈活性的分歧。 同時,白宮正考慮額外監督措施。報導指官員或成立審查小組,在公開發佈前評估 AI 系統。此方法可能標誌從早期放任政策的轉變。目前,主要科技公司顯然願意合作。透過分享早期模型版本,它們避免更嚴格監管壓力。

政府則獲得更近距離檢視可能重塑安全與戰爭的技術。這些協議顯示明確轉變:華盛頓不再想對 AI 風險作出反應,而是希望在風險出現前識別它們。

AI 內容聲明:本文由 AI 工具輔助撰寫初稿,經 TechRitual 編輯團隊審閱、修訂及事實查核後發佈。如有任何錯誤或需要更正,歡迎聯絡我們

📬 免費訂閱 TechRitual 科技精選

每 3 日由 AI 精選 5 篇最重要香港科技新聞,直送你信箱

或者


此文章發佈於 TechRitual 香港
Henderson
Henderson 是 TechRitual Hong Kong 科技編輯,專注報導智能手機、消費電子產品、SIM 卡及流動通訊市場。自加入 TechRitual 以來,累計撰寫數千篇科技報導及產品評測,內容同步發佈至 SINA 及 Yahoo Tech 等主要平台。部分文章由 AI 工具輔助撰寫,經編輯團隊審閱及事實查核後發佈。