用眼球来控制 iphone 是个不错的想法,但解放双手还是没戏 | 爱范儿-尊龙凯时官方网站
众所周知,由于采用了能够采集 3d 深度信息的结构光设计,苹果为 iphone x 添加了不少新的玩法,各种围绕面部的识别方案也成为很多人关注的话题。除了最常见的人脸解锁外,动态 animoji 表情也衍生出很多鬼畜的表情和短视频,就连苹果自己也尝试用这些头像制作过几期宣传广告,比如像这样的:
在 里,苹果进一步增强了 animoji 的识别范围,这次连 “吐舌头” 的动作都可以完美还原到定制头像上了。
但 3d 结构光的潜力显然远不止这些,基于新的 arkit 2.0,脑洞大开的开发者们又想出了一个新玩法——用双眼来代替手指,直接 “操作”iphone。
名为 matt moss 的学生开发者最近在自己的 twitter 上展示了一个,从视频中我们可以看到,iphone x 屏幕中出现了一个光标,而这个光标的 “移动” 操作则是完全由眼球控制的,此外只要开发者眨一下眼睛,光标也会判定为是 “点击”,随即便会进入到新的菜单页面。
根据 mashable 的称,这个所谓的 “眼球追踪” 功能是苹果在 arkit 2.0 中新加入的功能:“最初我只是想做个 demo 来试试看这个功能的可操作性。”
但很显然,配合 3d 结构光更为精准的识别,现在眼球追踪的准确度已经远比前几年那种鸡肋的表现要出色得多。同时这也意味着,现在手机摄像头不仅能用来自拍,同时也能准确判断出你的注意力在屏幕的哪个位置,这也为定制广告和应用服务提供了更丰富的想象空间。
但如果谈论的交互上的实用性,我想大部分人还是更愿意用手指来戳屏幕,为什么呢?
之所以会这么说,或许和三星 galaxy 系列曾经 “翻过的车” 有关。早在 galaxy s4 时代,三星就在手机中加入了一系列眼部和头部控制的功能:如果手机检测到你的视线离开屏幕,正在播放的视频就会自动暂停,此外还可以根据你的头部倾斜角度来滚动屏幕等。
这功能当时起初听上去感觉还是挺酷炫的,但实际用起来可能就成了下面这个样子:
所以,为了你的颈椎考虑,如果你真的打算靠 “动动眼珠子” 来取代双手,我觉得还是尽早打消这个念头吧。反而是对行动不便的残障人士来说,眼球追踪技术更能展现出它应有的价值和意义。
具体的案例微软已经给出来了,如今 windows 10 系统便自带了用眼球 “操作” 电脑的 “eye control” 特性,可以让身体不便的人实现用眼睛来 “打字”。
回到苹果这项隐藏的小功能上,值得注意的是,苹果在去年专门了一家专注于 vr 头盔和 ar 眼镜视觉追踪技术的德国企业 sensomotoric istruments,此举也被业内认为是苹果在为神秘的 ar 设备做技术积累。加上还有一系列手势和眼球追踪,说不定在未来苹果的虚拟现实产品中,我们也能看到一些意想不到的新玩法。
题图来源: