發表AR眼鏡,對科技迷來說可能不算感興趣的消息了,但看到有進步的AR眼鏡,則會。小米在今年MWC期間,以新聞稿的方式發表「小米AR眼鏡探索版」,在顯示亮度、輕量感上有所提升,並且開發自然的手勢控制方式,有一些特別的地方。而我們隨後也有個機會可以看到實機,雖然無法戴上去,但可以看一些外觀細節。
另外這款產品沒有透露關於銷售的資訊,先把它當成技術展示來看吧。
「小米AR眼鏡探索版」是基於高通Snapdragon Space XR這個平台開發的,在Snapdragon XR2 Gen1(晶片)上運行,所以支援Snapdragon Spaces的手機,都可以和小米AR眼鏡連接,並支援Snapdragon Spaces、OpenXR、Microsoft MRTK開發框架,也就是以這些工具開發的應用程式,可以在小米AR眼鏡上運行。
其中小米13系列已經支援小米眼鏡探索版。
外觀
小米AR眼鏡的外觀,還是比較有科技感的那種,眼鏡上有三顆鏡頭,在上方黑色框內有一對MicroOLED螢幕,除了光學鏡片外,這副AR眼鏡裡也配備自由曲面導光稜鏡,共同組成這副眼鏡的光學模組。不過因為這次沒有公布規格跟構造,所以目前沒有還包還含哪些感應器、續航、視野...等細節。小米AR眼鏡提到最主要的特色有這些:
- 是無線眼鏡。
- 重量只有126g。
- 提高畫面清晰度,以及解決microOLED亮度較不足的問題。
- 降低延遲時間。
- 可以根據使用需要,在透光、遮光兩種模式間切換。
- 小米自己研發「指關節」手勢,來操作AR應用。
- 以「小米互傳」把大螢幕應用串流到AR眼鏡裡。
是無線眼鏡
這是指小米AR眼鏡是無線和手機連接,來顯示內容,以及使用應用程式。這裡也一起介紹一個概念,這副小米AR眼鏡是採用「分散式運算」,也就是AR眼鏡看到到的內容、運算、渲染,都是在手機上做的,手機處理完之後,再把結果傳到AR眼鏡,而眼鏡和手機間是無線連接、傳輸。
這樣的好處想當然就是不會被線材限制移動範圍,且眼鏡不需負擔運算,可以做得比較輕巧。缺點可能是沒做好降低延遲的話,會影響體驗。以及若要在眼鏡和手機間傳輸敏感資料時,要考慮安全加密問題。
低延遲
小米提到,他們專研的低延遲通訊連線技術,可以降低手機跟眼鏡間的無線延遲至僅3毫秒,若是完整的通訊時間,就是眼鏡下指令,到手機處理完傳回眼鏡,這之間的時間差則可降低到50毫秒(但我想是最佳連線環境下啦)。不過我在爬文時,有專訪報導提到,Snapdragon XR2技術上可以把主機和眼鏡間完整的延遲時間,控制在20毫秒內。
所以小米指的50毫秒,這個因為沒有聽到說明,所以不清楚這50毫秒的定義是什麼。
(但50毫秒是0.05秒...應該也算快了)
重量控制在126g
小米AR眼鏡探索版的輕量化手法,包括採用鎂鋰合金、碳纖維材料,以及自主研發矽氧負極電池...等,把整機重量降到126g。輕量化的目的在降低配戴的負擔,但配戴要舒適跟很多設計都有關,小米AR眼鏡探索版提到,他們在分析數以萬計的頭部追蹤資料樣本,並根據這個來設計眼鏡的鏡腳間距、重心配置、弧面角度、鼻墊...等。
因為現場的眼鏡不能試戴,抱歉不能分享配戴感受了。
畫面清晰度
這是做AR眼鏡的最大挑戰之一,要讓人在鏡片上看到疊加在周遭環境中影像的光學技術方案有好幾種,這個很技術了,真的很有時間可以去爬文。小米AR眼鏡探索版用的是微型螢幕+導光稜鏡的方案。
眼鏡裡有一對MicroOLED微型螢幕,用來顯示應用程式的畫面,但我們眼睛不是直接看到這個螢幕,而是透過導光稜鏡,把畫面投射到眼前,小米提到使用的是自由曲面導光稜鏡。
自由曲面是一種光學設計技術,自由曲面表面是不對稱的複雜連續曲面,設計時要考慮折射率、透明度、光學性能...等因素,來確保反射的效率,小米提到這套光學系統,把MicroOLED顯示的內容,經過導光稜鏡中3個表面的反射,最終呈現在用戶眼前,且這套光學模組的光線損失極低,這可以確保用戶看到的畫面亮度,官方數字是小米AR眼鏡探索版的入眼亮度是1200nits,如此解決MicroOLED最終入眼亮度不足,難以在戶外使用的問題。
另外這裡看到一副眼鏡有透明鏡片,一副是像墨鏡那樣的深色鏡片,這不是小米AR眼鏡推出兩種款式,而是使用所謂的「電致變色鏡片」。
眼鏡平常是通透模式,就是眼前是透明鏡片,看到的畫面既有虛擬元素,也有周遭真實環境。但如果想要沉浸式一點的體驗,比方看電影、打遊戲,就可以開啟遮光模式,不那麼清楚看到真實環境,降低干擾。
大畫面應用
上面的例子,用戶在眼鏡裡看到的是大畫面遊戲,大畫面的內容當然不只遊戲,這小米AR眼鏡,可以透過小米互傳(Mi Share)裡的應用程式串流功能,把生態系中可用的大螢幕應用程式,放在眼鏡的顯示區域中觀看,比方有為大螢幕優化的TikTok、YouTube…等。且在小米AR眼鏡探索版裡,還可透過AR功能,把熟悉的App放在可視範圍內的任意位置,然後以手勢拉大縮小介面。
小米還描述了一個蠻酷的連接場景,比方在智慧電視上看影片時,可以把正在觀看的電視畫面中,用手勢抓到小米AR眼鏡裡繼續觀看。
或是可以在AR眼鏡裡用虛擬按鍵,操作真實智慧家電,比方可以用空間手勢點擊虛擬按鈕來打開前面那盞燈。
現場示範了打遊戲,使用者以手機當作操作手把,在眼鏡裡看大畫面玩左下角那樣的遊戲。
指關節手勢操作
在描述使用場景時,都可以看到「手勢操作」這個關鍵字,剛看到可以拉、抓、點擊,小米提到他們還研發了一套微手勢互動,利用我們食指到小拇指四根手指的12個關節點,當作小米AR眼鏡的手勢辨識區域。詳情是,把手掌橫擺,以中指的中間關節為方向鍵原點,食指的第二個關節為上,當結合周圍區域時,就可當作四向方向鍵來操作。基本上手勢要在眼鏡鏡頭拍攝範圍內才能辨識。
此外,這12個指關節還類似於中文九鍵拼音輸入法,大拇指點擊不同指關節就可輸入文字,若以拇指在食指上滑動則可操作進入和退出應用程式。未來小米希望能透過單手範圍,即能完成滑動和點選等操作。
這指關節操作法可以看官方影片,用手指關節劃出操作區域的想法蠻妙的啊~
===============
可能很多人已經買了AR眼鏡,躺在沙發上追劇過。
這種AR眼鏡,是在你眼前顯示一個螢幕,只不過螢幕旁還是周遭環境,這比較像是眼鏡型顯示器(心裡的OS是這不叫AR眼鏡)。
而我們期待的AR眼鏡,是把文字、圖示、虛擬人物、人像..等,以去背的樣子,疊加在你眼前的周遭環境裡,然後提供你當時需要的幫助,比方你對面的外國人正在跟你交談,眼鏡裡會即時顯示翻譯字幕(這Google先前有示意影片)。
或是在陌生的地方,透過即時定位,在眼前顯示會動的箭頭告訴你該轉進哪個巷口,經過一家看起來很好吃的餐廳時,可以辨識店名後,在眼鏡裡顯示該店評價,或看看菜單決定要不要進去。當然,要玩遊戲、看影片或文件時,它仍可顯示出螢幕。
並且可以透過手勢、轉向或是語音..等自然的方式控制,不需要外接。
並且延遲要低,下操作後要感覺馬上得到反應。
並且顯示要夠清楚、無線的,可以在戶外陽光下使用。
並且電量要夠至少使用幾個小時吧(或放進眼鏡盒可以很快充滿)。
並且要輕巧。
並且要好看。
並且要買得起。
還最好是MR那種可以互動的。
要做到每個「並且」,以現在的技術來說還有點難,而且應用程式也還在發展,然後做技術的、做硬體的,也要和做軟體的整合,這都還在摸索的路上,但幸好我們一年年看到的AR眼鏡,越來越輕、越來越亮,或展示出一些不同的應用,總是看得出在往「集滿每個並且」的路上前進中(殘忍一點說也是踩著先行者前輩的肩膀往上爬中)。
可能你對現在AR眼鏡可以挑出一堆缺點,但還不要就此下定論。
*題外話:
我猜你看到第一段那一堆Snapdragon XXX的名詞,一定很頭暈。
高通在打造AR、VR技術跟開發環境時,提出了很多名詞,其中新的,且最主要有幾個:Snapdragon Spaces、Snapdragon Spaces XR、Snapdragon XR2 Gen1、Snapdragon AR2 Gen1,是目前不少做ARVR裝置、軟體廠商,使用的平台/ 工具,可以作為基礎知識瞭解一下。
但這些名詞常讓人搞混,不瞭解其中差別,去Google搜尋到的文章,多半因為字眼生硬而看不懂...但幸好現在有ChatGPT,我覺得它解釋得很好,是看得懂的。