增強現實可穿戴設備如谷歌眼鏡,已經成為人們十分關注的未來人機交互體驗工具,相比手機,它擁有更加直觀的數據呈現方式,也能夠提供更主動式的服務,因為它就戴在你的臉上。 當然,目前谷歌眼鏡的發展似乎遇到了一些瓶頸,在此前的文章中我們也討論過,主要是由于外形設計不佳、隱私窺探、正式版遙遙無期等問題,讓人們對谷歌眼鏡的熱情有所下降。另外,還有谷歌眼鏡采用的語音交互方式,也帶來了一定的局限性。

試想一下,在一個嘈雜的酒吧說“OK,Glass”,不僅眼鏡無法識別,也會讓周圍人反感。
那么,有沒有一種可能性讓谷歌眼鏡可以實現類似“Kinect”體感攝像頭的操作呢?一家位于美國波特蘭的軟件廠商給出了答案:ARI應用。近日,該公司發布了首個測試版本,讓我們看到了一種新的人機交互模式。

ARI的創始人Ryan Fink表示,當移動計算機應用從手機轉移到你的眼睛,一個新的操作形式勢在必行,“ARI”就提供了這樣的一種體驗。你可以把它看作是手勢識別版的“siri”,但不需要任何按鈕,直接就能夠使用。
那么,怎么使用ARI呢?非常簡單,佩戴谷歌眼鏡時,將手握拳舉到眼前,ARI便會開始識別,3秒鐘后,你就可以使用各種手勢來實現操作了,比如滑動、翻頁等等。最終,ARI會開放API接口,也就是說每一款谷歌眼鏡應用,理論上都能夠通過手勢來操作。
操作谷歌眼鏡的新方式

ARI的創始人表示,開發這個軟件平臺的初衷在于他們發現谷歌眼鏡的操作形式不夠靈活,語音技術會遭到環境的限制,最終讓智能眼鏡產品成為一種“花瓶”式的產品。ARI的出現,則意味著智能眼鏡可以應用在更多場景中,比如戴著厚厚手套無法觸摸眼鏡按鍵的滑雪運動員。
ARI在游戲環境下也具有更大的發展前景,畢竟沒有一個用戶想通過大叫“飛起來,小鳥”來操作Flappy Bird;但是微軟Kinect已經證明,玩家逐漸接受了“手舞足蹈”式的體感操作。
前景光明但需要解決一些問題
在使用中我們發現了一些ARI的問題,比如測試識別手勢花費時間較長,需要明確地手勢動作才能夠準確識別等,不過目前ARI尚處測試階段,這些問題都有待日后逐步完善。另外,ARI實際上是直接運行在谷歌眼鏡中的應用,而非手機,所以谷歌眼鏡較慢的處理器可能也對操作產生了一定的影響。
谷歌眼鏡的攝像頭也是一個問題。新的微軟Kinect或是索尼PS4攝像頭都內置了雙鏡頭,用來實現景深判斷,但谷歌眼鏡的單攝像頭顯然無法實現這種效果,這對ARI的開發帶來了更多難度,程序員不得不開發更先進的算法,讓它能夠判斷出手掌與背景的深度差別,實現更準確的操作。
最后的問題則是電池壽命。顯然,ARI在一定程度上會加重谷歌眼鏡本身的運算負荷,如何保持良好的識別率、同時又能夠節省電力,這也是ARI團隊在技術上遭遇的挑戰。
總得來說,智能眼鏡產品距離成熟還有很長一段時間,不僅僅是因為它涉及到敏感的隱私問題,還在于其使用體驗不完美、應用形式雞肋,不如直接使用手機來得方便。不過,ARI的出現證明智能眼鏡擁有極大的潛力,相信在不斷地完善、優化之后,對智能眼鏡的操作體驗會產生積極的影響。