Google 最近決定將其 AI 模型 Gemma 從 AI Studio 平台移除,這是因為共和黨參議員 Marsha Blackburn 提出了投訴。該參議員指控該模型捏造了對她的嚴重刑事指控,並將其描述為誹謗行為。在 X 平台上的一篇帖子中,Google 承認已經「看到一些非開發者試圖在 AI Studio 使用 Gemma 並向其詢問事實問題」,強調 AI Studio 是為開發者而設,而非一般消費者使用。 Gemma 被設計為一系列針對開發者的 AI 模型,具體變種包括醫療應用、編碼以及文本和圖像內容的評估。Google 澄清,Gemma 原本並不打算作為消費者工具或提供事實答案。為了減少混淆,該公司已將 Gemma 從 AI Studio 移除,但仍透過 API 讓開發者使用。 這場爭議的起因是 Blackburn 向 Google 的 CEO Sundar Pichai 寫信,指控 Gemma 在回答有關她過去的問題時提供了虛假信息。具體而言,當被詢問 Blackburn 是否曾被指控強姦時,Gemma 報導她曾被指控在 1987 年參選州參議院期間與一名州警有性關係,並聲稱她施壓要求他獲得處方藥,且該關係涉及非自願行為。Blackburn 強烈否認這些指控,表示這些完全是捏造的,並指出選舉年份被錯誤表述,實際上是在 1998 年進行的。她還指出 Gemma 提供的鏈接導致錯誤頁面和不相關的新聞文章,強調從未有過這類指控或相關人士。 此事件凸顯了對 AI 生成內容準確性的日益關注。儘管近幾年生成性 AI 取得了進展,但 AI 模型與事實準確性之間的關係依然複雜且充滿挑戰。業界仍在努力應對 AI 聊天機器人所產生的虛假或誤導性答案的普遍性,這些答案容易歪曲事實。Google 表示其致力於減少這些「幻覺」現象,並不斷改進其模型。 此外,Blackburn 對此事件的回應非常明確:“在你們能控制之前,先關閉它。”她對立即行動的呼籲強調了解決 AI 系統生成虛假信息的緊迫性。這類不準確的影響在公共人物和政治話語中尤為嚴重,因為錯誤的聲明可能會對名譽造成重大影響。 隨著 AI 技術的持續發展,確保 AI 輸出可靠性和真實性的挑戰將始終是開發者和公司面臨的重要議題。Google 及其他科技巨頭面臨著越來越大的壓力,要求他們實施保障措施,以防止其 AI 系統傳播虛假信息。Gemma 事件提醒人們,無監管的 AI 能力可能帶來的後果,以及對嚴格監管的需求。 這一事件的直接後果也引發了對 AI 開發者道德責任的更廣泛討論。隨著 AI 模型越來越多地融入社會的各個方面,誤用和誤傳的潛力也隨之增加。在 AI 開發中,需要明確的指導方針和問責機制的必要性變得比以往任何時候都更加迫切。 Gemma 事件還引發了有關 AI 技術政治影響的討論。隨著反保守偏見的指控浮現,一些立法者對 AI 對公共認知的影響和政治操控的潛力表示擔憂。科技與政治的交集變得越來越複雜,AI 在塑造敘事和影響公共輿論方面扮演著關鍵角色。 隨著辯論的繼續,AI 算法及其訓練數據的透明性至關重要。確保 AI 模型在準確和多樣化的數據集上進行訓練,可以幫助減少偏見和虛假信息的風險。此外,促進 AI 開發者、政策制定者和倫理學家之間的合作環境,可以為負責任的 AI 創新鋪平道路。 Gemma 事件並非孤立事件,而是行業中一種更廣泛的趨勢,技術的快速發展超過了倫理框架和監管措施的建立。隨著社會面對 AI 的影響,培養技術開發中的問責與誠信文化的重要性不容忽視。 移除 Gemma 從 Google 的 AI Studio 中,突顯了應對與 AI 生成內容相關挑戰的緊迫需求。隨著行業的發展,必須優先考慮準確性、問責制和道德考量,以建立對 AI 技術的信任。這一事件引發的對話可能會影響 AI 開發的未來及其在社會中的作用,強調創新與責任之間的關鍵平衡。