Google 發佈三款 Android XR 智能眼鏡原型,包含單目 AI 眼鏡及雙目 HUD 原型,進行長達 30 分鐘的實測

在 Android Show: XR Edition 展示 Android XR 的未來之前,我參加了一小時的私人演示,測試了三款 Android XR 眼鏡:在 I/O 2025 首次介紹的單目 AI 眼鏡、一款新的雙目 HUD 原型,以及 XREAL Project Aura XR 眼鏡。相比於我在 I/O 的首次演示僅持續五分鐘,這次我使用單 HUD 眼鏡超過 30 分鐘,測試了 Gemini、Google 地圖、翻譯、YouTube 音樂、Uber 和其他基於眼鏡的應用。

目前最好的 Samsung Galaxy XR 眼鏡的價格為 $249.99 / 約 HK$ 1,949。

Android XR 眼鏡的期望功能中,Google 在 Google I/O 上首次展示的單目原型和 Android XR 軟件將成為 Samsung 眼鏡硬件的基礎,預計明年推出,設計來自 Warby Parker 和 Gentle Monster。除此之外,他們還計劃在 2026 年推出「無屏幕」AI 眼鏡,依賴揚聲器、麥克風、相機及 Gemini 智能來提供音頻導向的體驗。這將成為 Ray-Ban Meta AI 眼鏡的重要競爭者。

與此同時,雙顯示版本最早要到 2027 年才會推出。Android XR 的高級產品總監 Juston Payne 解釋稱,當前的眼鏡對消費者來說「稍微有些重」,因此 Google 將「等到準備好再推出」。我確實感受到鼻子的壓力,與 Meta Ray-Ban Display 眼鏡相當。

這款僅音頻的眼鏡可能會是最實惠、最輕薄、最受歡迎的。Payne 指出,Android XR 從 Pixel Buds 和 Pixel 輔助工具(如 TalkBack)中汲取了多年的音頻工具經驗,「利用已有的資源」。當我按下按鈕關閉眼鏡的 HUD 時,仍然能依賴我在 Pixel Watch 4 上獲得的 Gemini 智能。

Payne 期待「大部分的使用情況」將是在「關閉顯示的狀態下」,因此使用音頻版本「並不是一種痛苦的削減」,他向我保證。

在我的眼鏡原型演示中,他們告訴我 Samsung 最終的產品將同時支持 Android 和 iOS。我原以為他們會像 Galaxy Ring 一樣只推出 Android 版本,但 Google 的團隊強調,iPhone 用戶也會希望獲得這些增強的 Google 應用體驗。

我在 Google 的 AI 眼鏡上演示的多項功能,如圖像識別、通過相機提供的食譜建議、實時翻譯、通話期間共享相機視圖、當地餐廳推薦、帶有小地圖的逐步導航等,都是 Meta 的 AI 或 HUD 眼鏡所具備的。Meta 是通過將自身應用和智能與主要合作夥伴結合來實現這一點,使其 AI 命令能夠啟動基本工具,如開始播放列表或撥打聯絡人。

雖然 Google 擁有直接訪問 Android 系統的權限,但顯然意識到它可以在 iPhone 上提供類似的分段體驗,從而大幅擴大潛在受眾。

不過,Android 的體驗應該是最全面的,因為它能直接訪問所有 Play 商店應用,而不是僅限於 Google Workspace 套件和 Gemini 及合作夥伴應用。並且,它們將與其他 Android 配件同步。當我用眼鏡拍照時,Google 代表的 Pixel Watch 上出現了預覽圖像。他表示,其他 Wear OS 手錶,如 Galaxy Watch,也將與 Android XR 整合,這樣手勢就能觸發某些動作,類似於 Meta 如何使用其 sEMG 帶進行手勢控制。

此外,在 Android 中,為手機開發的工具將直接轉移到眼鏡上。例如,如果某個應用支持實時更新通知,開發者就不必「額外做任何事情」,眼鏡就能顯示同樣豐富的通知。至於 Uber,他們在今年 5 月對 Google 地圖的演示感到「興奮」,並決定創建類似的體驗。在我的演示中,Google 模擬了一個接送事件;當我向下看時,可以看到通往接送區的機場地圖,向前看時則看到駕駛員的詳細資訊。

Payne 認為,Samsung 和 Google 將需要解決的一個主要挑戰是相機質量。Meta 眼鏡能夠拍攝高解析度照片和穩定視頻,但在低光攝影、構圖和變焦方面存在限制。Payne 表示,Samsung 負責最終消費者版本的相機,但這是一個與 Google 緊密合作的過程,Google 將負責後處理和 AI 圖像編輯。當我詢問 Payne 對未來的期望時,他坦言「物理會成為障礙……」


Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。