Google “Project Soli“雷达技术能探测细微的动作和手势
在上周举行的2015Google I/O大会上展出了许多在VR或者AR领域有潜在用途的技术。其中最与众不同的就是Project Soli,其使用雷达技术来探测细微的动作和手势并把它们转化进行信息输入。
Google ATAP(顶尖技术和产品)是搜索和移动操作系统巨头的一个部门,你之前可能没听说过,其在2015 Google I/O开发者大会上表现突出。从触摸感应服装到能够为跨平台移动设备提供无缝加密的SD卡,他们的研发实验室有时在报告中散发出一种疯狂的科学家气息。
然而有一个特别的项目对虚拟现实行业有着特殊的兴趣,尽管其应用程序对VR或AR不能立即使用。Project Soli使用雷达(无线电探测和测距)来探测你的手部和手指的微小动作。它传输无线电波并收集击中目标的反射感应。在世界大战2中用得还不错,但它是Google建立的手势识别管道,意味着信息输入变得有趣了。管道转化你反射的信号,比如说,把你的食指和大拇指在一起摩擦,然后识别这种手势或动作并把手势重定向输入应用程序中。
该技术迄今为止被开发用于硬件传输和接收无线电波,放到一个芯片上,这个芯片可嵌入到移动设备和任何类型的硬件中。虽然Project Soli似乎没有为广泛的VR输入提供所需的各类选择,但它确实具有一些有趣的用途——或许不是立即就得看出来的——可以实现虚拟世界的控制精细化。
想象一下把Soli嵌入到一个室内空间追踪系统中。比如,在Valve的Lighthouse控制器侧面安装一个雷达传感器,当手掌和手臂动作不能剪切的时候,可以对位置进行微量级控制。例如,你在操作一个VR CAD软件包,并需要精确的控制来调整图纸上的线的粗细和位置。使用lighthouse控制器可以帮你完成大部分工作,但是要完成任务还需要精细的操作。在Soli传感器上方翘起大拇指,在恢复Lighthouse控制前使用你的精细运动控制来得出结果。
或许有应用程序可用于全身的控制——尽管目前来说,在一个应用程序中能够把一个大的目标(比如说你的上半身)准确及可靠地转化为有用的动作,还是很困难的——也许只是干扰太多了。现在看来用Soli来增强一个现有的控制系统或许是一种更有趣的方式。
我们目前还不知道Google是否或者会以怎样的方式推出Project Soli 技术。确实目前在公司移动手机界面的传统市场有更多直接现成的应用程序可以在该系统中使用。然而,随着每一届Google开发者大会来了又去,在手机硬件发展停滞不前和不断减少的时代,公司显然要把重心放在寻找下一代消费者硬件。
有虚拟现实和增强现实两个领域,因此认为Google的ATAP研究者们或许可以找到方法把他们适应性技术迅速发展的套件Project Tango和Cardboard比如说,结合到下一代可使用VR和AR的移动设备中,也不是什么异想天开的事。想到在今后的大会上我们可以看到ATAP和Google推出的产品,就觉得非常令人激动。
VIA roadtovr