據彭博社馬克 古爾曼今日報道,蘋果正加速推進其智能眼鏡研發計劃,目標在 2026 年底發布首款產品,旨在進一步搶占人工智能增強設備市場。
據知情人士透露,蘋果工程師正加緊研發這款眼鏡,以期實現在 2026 年年底發布的目標,但該公司擱置了研發配備內置攝像頭的智能手表計劃。
該產品將直接對標 Meta Ray-Ban 智能眼鏡及谷歌本周公布的 AndroidXR 眼鏡原型,定位為“基于 AI 的基礎型可穿戴設備”。
據內部人士透露,這套智能眼鏡將配備攝像頭、麥克風陣列及微型揚聲器,支持拍攝靜態照片與動態視頻、實時翻譯、逐向導航、音樂播放及通話功能。
與 Meta 等競爭對手等產品類似,用戶可通過 Siri 語音助手進行交互,設備還可根據用戶視野內容提供環境分析反饋。不過,該產品暫不具備 AR 功能。
知情人士透露,蘋果將在今年年底開始與海外供應商合作,并完成“大批量”原型機生產,為后續量產測試預留充足時間。
一位測試工程師向彭博社表示:“產品形態與 Meta Ray-Ban 近似,但做工更精良”。據稱,這項工作由蘋果 Vision 產品事業部牽頭,該事業部此前曾負責 Vision Pro 的研發工作。
值得注意的是,不同于 Meta 采用 Llama 與谷歌 Gemini 雙 AI 平臺,蘋果將完全依賴自主研發的 AI 模型。
內部人士反映,蘋果研發團隊對公司的 AI 技術儲備存在顧慮。目前 iPhone的視覺智能功能仍需依托谷歌和 OpenAI 的技術支持,而 Meta 眼鏡及谷歌 Android XR 眼鏡均基于自有 AI 平臺。為實現硬件自主化,蘋果正加緊開發替代方案。
IT之家注意到,蘋果前段時間剛剛發布了一款視覺語言模型 ——FastVLM,提供 0.5B、1.5B、7B 三個版本,專為 Apple Silicon 設備的端側 AI 運算進行優化。該技術的應用場景指向蘋果正在研發的智能眼鏡類穿戴設備。
技術文檔顯示,FastVLM 在保持精度的前提下,實現了高分辨率圖像處理的近實時響應,同時所需的計算量比同類模型要少得多。