距離 Google 被 OpenAI 的 ChatGPT 釋出震驚之後已經過去兩年多,該公司顯著加快了其 AI 模型的發佈速度。
在三月底,Google 推出了 AI 推理模型 Gemini 2.5 Pro,該模型在多項編碼和數學能力的基準測試中領先業界。這次發佈距離該科技巨頭推出的另一款模型 Gemini 2.0 Flash 僅三個月,後者在當時被認為是最先進的。
Google 的 Gemini 產品總監 Tulsee Doshi 在接受 TechCrunch 訪問時表示,公司的模型發佈頻率增加是為了跟上快速發展的 AI 行業。
Doshi 說:「我們仍在試圖找出正確的模型發佈方式,以及如何獲取反饋。」
然而,加快的發佈時間表似乎付出了代價。Google 尚未為其最新模型,包括 Gemini 2.5 Pro 和 Gemini 2.0 Flash 發佈安全報告,這引發了人們對該公司是否優先考慮速度而非透明度的擔憂。
目前,前沿 AI 實驗室(包括 OpenAI、Anthropic 和 Meta)在推出新模型時,通常會報告安全測試、性能評估和使用案例。這些報告有時被稱為系統卡或模型卡,幾年前就由業界和學術界的研究人員提出。Google 實際上是最早在 2019 年的研究論文中建議使用模型卡的公司之一,稱其為「負責任、透明且可問責的機器學習實踐的一種方法」。
Doshi 表示,該公司尚未為 Gemini 2.5 Pro 發佈模型卡,因為它將該模型視為「實驗性」發佈。這些實驗性發佈的目標是在有限範圍內推出 AI 模型,獲取反饋並在生產發佈前進行迭代。
根據 Doshi 的說法,Google 計劃在 Gemini 2.5 Pro 正式發佈時發佈其模型卡,並補充說公司已經完成了安全測試和對抗性測試。
在隨後的消息中,Google 發言人告訴 TechCrunch,安全仍然是該公司的「首要任務」,並計劃在未來釋出更多有關其 AI 模型的文檔,包括 Gemini 2.0 Flash。目前,Gemini 2.0 Flash 雖然已經普遍可用,但也缺乏模型卡。Google 最近一次發佈的模型卡是針對於 Gemini 1.5 Pro,距今已超過一年。
系統卡和模型卡提供了有用的(有時不太光彩的)信息,這些信息並不總是被公司廣泛宣傳。例如,OpenAI 為其 o1 推理模型發佈的系統卡揭示了該模型有「陰謀」對抗人類的傾向,並秘密追求自身的目標。
整體而言,AI 社區認為這些報告是為了支持獨立研究和安全評估的善意努力,但近年來這些報告的重要性有所增加。根據 Transformer 之前的報導,Google 在 2023 年告訴美國政府,將為所有「重要」的公共 AI 模型發佈「在範圍內」的安全報告。該公司對其他政府也做出了類似的承諾,保證「提供公共透明度」。
在美國,聯邦和州級別上已經出現了針對 AI 模型開發者創建安全報告標準的監管努力。然而,這些努力的採用和成功有限。其中一個較為顯著的嘗試是被否決的加州法案 SB 1047,該法案遭到科技行業的強烈反對。立法者還提出了授權美國 AI 安全研究所(美國的 AI 標準制定機構)建立模型發佈指導方針的立法。然而,該安全研究所目前在特朗普政府下可能面臨削減。
顯而易見,Google 在某些承諾報告模型測試的方面落後,同時卻以史無前例的速度發佈模型。許多專家認為,這可能會造成不良的先例,特別是隨著這些模型變得越來越強大和複雜。
日本電話卡推介 / 台灣電話卡推介
一㩒即做:香港網速測試 SpeedTest HK