Elon Musk 試圖瓦解 OpenAI 的法律努力,可能取決於其營利子公司如何增強或削弱該前沿實驗室創立使命,即確保人類從人工通用智能中受益。周四,奧克蘭聯邦法院聽取一名前員工兼董事會成員的證詞,她表示公司將 AI 產品推向市場的努力,損害了其對 AI 安全的承諾。Rosie Campbell 於 2021 年加入公司的 AGI 準備團隊,並於 2024 年在其團隊解散後離開 OpenAI。
同樣時期,另一個專注安全的團隊 Super Alignment team 亦被關閉。「當我加入時,它非常注重研究,人們常討論 AGI 和安全問題,」她作證時表示。「隨著時間推移,它變得更像產品導向的組織。」 在交叉詰問下,Campbell 承認,構建 AGI 的實驗室目標很可能需要大量資金,但她表示,在適當安全措施到位前建立超智能電腦模型,並不符合她最初加入該組織的使命。
Campbell 指出一起事件:Microsoft 在公司 Deployment Safety Board (DSB) 評估前,透過其 Bing 搜尋引擎在印度部署公司 GPT-4 模型的版本。她表示,該模型本身並無巨大風險,但公司需要「為技術變得更強大時設定強有力的先例。我們希望有可靠執行的良好安全流程。」
OpenAI 安全承諾受質疑
OpenAI 的律師亦讓 Campbell 承認,在她「推測性意見」中,OpenAI 的安全方法優於 Musk 創立的 AI 公司 xAI(該公司今年早些被 SpaceX 收購)。OpenAI 會發布模型評估並公開分享安全框架,但公司拒絕評論其目前對 AGI 對齊的方法。其現任 Preparedness 主管 Dylan Scandinaro 於二月從 Anthropic 聘請而來。
Altman 表示,此聘請讓他「今晚能睡得更好」。然而,在印度部署 GPT-4 正是導致 OpenAI 非營利董事會於 2023 年短暫解僱 CEO Sam Altman 的警示之一。此事件發生於包括當時首席科學家 Ilya Sutskever 和當時 CTO Mira Murati 在內的員工抱怨 Altman 迴避衝突的管理風格之後。 當時董事會成員 Tasha McCauley 作證,表達對 Altman 對董事會不夠坦誠的擔憂,這使董事會的特殊結構無法運作。
McCauley 亦討論 Altman 誤導董事會的廣泛報導模式。值得注意的是,Altman 對另一董事會成員謊稱 McCauley 意圖移除第三名董事會成員 Helen Toner,後者發表白皮書包含對 OpenAI 安全政策的隱含批評。Altman 亦未告知董事會公開推出 ChatGPT 的決定,成員擔憂他未披露潛在利益衝突。「我們是非營利董事會,我們的使命是監督下屬營利組織,」McCauley 向法院表示。
「我們的主要方式受到質疑。我們完全缺乏信心,相信傳達給我們的資訊能讓我們明智決策。」 然而,解僱 Altman 的決定與對公司員工的要約收購同時發生。McCauley 表示,當 OpenAI 員工開始支持 Altman 且 Microsoft 努力恢復現狀時,董事會最終逆轉,反對 Altman 的成員辭職。非營利董事會顯然無法影響營利組織,這直接關乎 Musk 的案件,即 OpenAI 從研究組織轉變為全球最大私人公司之一,違反了創辦人隱含協議。
由 Musk 團隊聘請作專家證人的前哥倫比亞法學院院長 David Schizer 呼應 McCauley 的擔憂。「OpenAI 強調其使命關鍵部分是安全,並優先安全而非利潤,」Schizer 表示。「這包括認真對待安全規則,若某事需安全審查,就必須進行。關鍵是流程問題。」 隨著 AI 已深嵌營利公司,此問題遠超單一實驗室。McCauley 表示,OpenAI 內部治理失敗應成為擁抱更強政府監管先進 AI 的理由—「若一切歸於一名 CEO 決策,而公共利益岌岌可危,這非常次優。
」
📬 免費訂閱 TechRitual 科技精選
每 3 日由 AI 精選 5 篇最重要香港科技新聞,直送你信箱


