智慧型手機還有什麼可能互動?用眼球取代手部觸控!
眾所周知,由於採用了能夠採集 3D 深度訊息的結構光設計,蘋果為 iPhone X 添加了不少新的玩法,各種圍繞面部的識別方案也成為很多人關注的話題。除了最常見的人臉解鎖外,動態 Animoji 表情也衍生出很多鬼畜的表情和短影片,就連蘋果自己也嘗試用這些頭像製作過幾期宣傳廣告,比如像這樣的:
在 iOS 12 裡,蘋果進一步增強了 Animoji 的識別範圍,這次連「吐舌頭」的動作都可以完美還原到客製化頭像上了。
但 3D 結構光的潛力顯然遠不止這些,基於新的 ARkit 2.0 ,腦洞大開的開發者們又想出了一個新玩法——用雙眼來代替手指,直接「操作」iPhone。
名為 Matt Moss 的學生開發者最近在自己的 Twitter 上展示了一個測試影片,從影片中我們可以看到,iPhone X 螢幕中出現了一個光標,而這個光標的「移動」操作則是完全由眼球控制的,此外只要開發者眨一下眼睛,光標也會判定為是「點擊」,隨即便會進入到新的選單頁面。
根據 Mashable 的報導稱,這個所謂的「眼球追蹤」功能是蘋果在 ARkit 2.0 中新加入的功能:「最初我只是想做個 Demo 來試試看這個功能的可操作性。」
但很顯然,配合 3D 結構光更為精準的識別,現在眼球追蹤的準確度已經遠比前幾年那種雞肋的表現要出色得多。同時這也意味著,現在手機鏡頭不僅能用來自拍,同時也能準確判斷出你的注意力在螢幕的哪個位置,這也為客製化廣告和應用服務提供了更豐富的想像空間。
但如果談論的交互上的實用性,我想大部分人還是更願意用手指來戳螢幕,為什麼呢?
之所以會這麼說,或許和三星 Galaxy 系列曾經做失敗的東西有關。早在 Galaxy S4 時代,三星就在手機中加入了一系列眼部和頭部控制的功能:如果手機檢測到你的視線離開螢幕,正在播放的影片就會自動暫停,此外還可以根據你的頭部傾斜角度來滾動螢幕等。
這功能當時起初聽上去感覺還是挺酷炫的,但實際用起來可能就成了下面這個樣子:
所以,為了你的頸椎考慮,如果你真的打算靠「動動眼珠子」來取代雙手,我覺得還是儘早打消這個念頭吧。反而是對行動不便的殘障人士來說,眼球追蹤技術更能展現出它應有的價值和意義。
具體的案例微軟已經給出來了,如今 Windows 10 系統便自帶了用眼球「操作」電腦的「Eye Control」特性,可以讓身體不便的人實現用眼睛來「打字」。
回到蘋果這項隱藏的小功能上,值得注意的是,蘋果在去年專門收購了一家專注於 VR 頭盔和 AR 眼鏡視覺追蹤技術的德國企業 SensoMotoric Istruments,此舉也被業內認為是蘋果在為神秘的 AR 設備做技術累積。加上還有一系列手勢和眼球追蹤專利,說不定在未來蘋果的虛擬現實產品中,我們也能看到一些意想不到的新玩法。
文章來源:Inside