Apple 與 Google 合作,將 Gemini 模型應用於新 Siri 功能

Apple 確認已與 Google 展開合作,計劃利用 Gemini 模型來增強未來的 Siri 和 Apple Intelligence 功能。根據 CNBC 的報導,Apple 在對此進行評估後表示,Google 的技術為 Apple 基礎模型提供了最有能力的支持,並期待這將為用戶帶來創新的新體驗。

報導指出,Apple 與 Google 的合作為期數年,Apple 將利用 Google 的 Gemini 模型及雲端技術來開發其自家的 Apple 基礎模型。Apple 的聲明中未透露具體的時間表,但 CNBC 提到這些新功能預計將在今年晚些時候推出。

在 2024 年的 WWDC 上,Apple 宣佈了 Apple Intelligence 生態系統,包括寫作工具、圖像遊樂場、Genmoji 等多項功能。同時,Apple 也介紹了升級版的 Siri,新增了個人化上下文、應用內操作及螢幕意識等功能。儘管 Apple 已發佈了大部分在 WWDC 上宣佈的 Apple Intelligence 功能,但對於升級版 Siri 的推出卻延遲了。

Apple 在去年五月對 John Gruber 的聲明中提到,推出這些功能的時間比預期要長。此次確認是在 Bloomberg 的 Mark Gurman 對此話題進行深入報導數月後發出的。根據 Gurman 的資料,Apple 將每年支付 Google 約 10 億美元,以獲得 Google Gemini 模型的使用權。

Bloomberg 還報導指出,Apple 將使用一個 1.2 兆參數的 AI 模型來支持其新版本的 Siri。至於技術或財務條款,Apple 和 Google 目前尚未確認。預期 Google 將為部分 Apple Intelligence 功能提供支持,而 Apple 自家的模型則將繼續支援其他功能。

隨著這項合作的推進,Apple 和 Google 的關係將在人工智能領域持續發展,這也可能改變用戶對於 Siri 和 Apple Intelligence 的使用體驗。


Henderson
Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。