近期,Apple 舉行了 2026 財年第一季度財報電話會議,在會議上,官方詳細解釋了引入 Gemini 後新版 Siri 將如何運作。Apple 首席執行官蒂姆·庫克重申,與 Google 的合作是將 Google 的 AI 技術作為「Apple 基礎模型」的底座,目的是為用戶帶來更多創新的體驗,同時讓 Apple 能夠專注於開發高度個性化的功能。庫克將與 Google 的合作描述為一種協作關係。
Google 的底層模型將負責處理邏輯判斷、基礎任務以及廣泛的網頁搜索查詢,而 Apple 設計的「個性化 Siri」層則負責將這些回應與用戶的個人習慣和跨應用數據相結合,確保 Siri 的交互體驗依然符合用戶的核心審美與偏好。
新版 Siri 還將具備強大的「屏幕感知能力」,能夠識別當前屏幕顯示的內容並執行相應指令,例如在查看消息時直接保存地址或在閱讀郵件時設置提醒。
此外,即便引入了外部模型,Apple 依然堅持隱私保護。所有 AI 任務將繼續通過設備端處理與 Apple 獨有的「私有雲計算」運行,確保用戶數據的安全與隔離。這種集成方式將覆蓋 iOS、iPadOS 和 macOS 的各個環節,以個性化且私密的方式提升跨產品的價值。
據了解,採用 Gemini 技術的新版 Siri 預計將隨著 iOS 26.4 發
佈,而全新的 Siri 架構則預計將在 2026 年 6 月的 WWDC 上隨 iOS 27 問世,屆時其能力預計可與 Google 的 Gemini 3 媲美。




