Apple 的 Siri 智能助手延遲超過一年,或許帶來意外好處

Apple 的智能助手 Siri 在人工智能技術上明顯落後,這主要是因為 Apple 在開發自家 AI 模型方面面臨困難。Apple 對於支出持謹慎態度,加上其對隱私的重視,使得收集訓練數據變得更加困難。因此,Siri 的發展進度相對緩慢。

不過,這一延遲也有其正面影響。本周,Apple 和 Google 宣佈 Gemini 模型將運行於 Apple 的私有雲計算伺服器,以支援未來的 Apple 智能功能,包括在 WWDC24 上宣佈的全新 Siri。雖然這將涵蓋更高效能的功能,但本地模型仍會是一部分。

在 WWDC24 上,Apple 智能功能要求使用 A17 Pro 或更高版本的芯片,這意味著它僅限於最新的 iPhone 15 Pro 和 iPhone 15 Pro Max 等高端機型。不過,隨著時間推移,擁有 Apple 智能功能的設備數量顯著增加。過去兩年內購入任何 iPhone 16 或 iPhone 17 型號的用戶,包括已擁有 iPhone 15 Pro 的用戶,都能使用 Apple 智能功能。

現在,市場上有 11 款支援 Apple 智能功能的 iPhone 型號,這比最初推出時的 2 款增長了許多。當 Apple 智能功能首次推出時,幾乎成為 iPhone 16 系列的一個賣點,而現在這將只是針對大量用戶的免費軟體更新。

至於新的 Apple 智能功能將如何運作,仍然難以深入探討,因為具體細節尚未公佈。儘管 Google 的 Gemini 在私有雲計算上負責大多數 Siri 請求,本地模型仍然會發揮重要作用。無論某個特定功能是否使用本地模型,Apple 可能會採取的方針是,所有 Apple 智能功能都要求用戶設備能夠支援本地模型。

新的 Siri 將於 iOS 26.4 在春季推出,而其他 Apple 智能功能則會隨 iOS 27 一同推出。這意味著,越來越多的 iPhone 用戶將能夠體驗到這些功能,假設一切順利進行。


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。