雨果巴拉:行业北极星Vision Pro过度设计不适合市场

与uSens合作 爱普生AR眼镜支持Fingo手势交互

简评:开发者可以在Epson平台上使用uSens凌感手势追踪解决方案,开发更多基于手势的AR应用。

YiVian 2017年1月5日)专注AR VR交互解决方案的硅谷公司uSens凌感在CES上宣布与全球技术领导者Epson爱普生达成合作,其新款Moverio BT-300 AR眼镜将支持uSens凌感研发的26自由度手势交互技术。这款融合手势交互的AR眼镜将在CES期间在uSens展位(Sands Expo, Level 1, Hall G, booth #50001)首次展出。

Moverio BT-300内置Android 5.1系统,采用英特尔Atom X5处理器,配有500万像素的前置摄像头及OLED显示屏,具备IMU头部追踪技术。这款头显采用分体式设计,把处理器、电源与头显进行分开,放置在一个黑色的小盒子中,通过数据线连接到头显。整机十分轻便,重量仅为65克。

BT-300的图像质量也令人留下了深刻的印象,也是首个公司在增强现实头显中采用OLED显示屏,跟以前的DLP投影波导显示相比是个进步。BT-300还包括一个头部追踪功能,可以为用户提供更高的沉浸感。

BT-300定位于特定行业,以满足一些实际的需求,提高生产效率,如无人机操作员、仓库搬运工人。


结合uSens凌感Fingo的Epson Moverio BT-300 AR眼镜实拍图

uSens凌感的手势交互模组Fingo通过USB与Moverio BT-300 AR眼镜连接,可放置在眼镜的顶端或通过支架固定在设备上。消费者可以在最低电量及最少运算能力消耗的情况下,轻松实现无手柄的自然手势交互体验。

“我们非常高兴与uSens团队一起将自然手势交互技术应用在我们的新款Moverio BT-300 AR眼镜上。”Epson美国产品经理Eric Mizufuka表示,“我们鼓励开发者基于Epson的生态平台,使用uSens凌感的创新解决方案,在娱乐、零售、汽车等领域,创造更多基于裸手手势而非手柄的自然交互场景。”

uSens凌感日前发布了新一代开发者版Fingo硬件及SDK,在26自由度手势追踪算法上进行了大幅改进,尤其在功耗上。Fingo能够精准快速识别用户常用的自然手势动作,包括抓、拉、扔等,结合外部特征点一起使用,还可以实现位置追踪功能。

“三维手势追踪能够让用户在AR VR中有更好地掌控,享受更具沉浸感的虚拟体验。”uSens凌感联合创始人、CTO费越博士说,“Epson在2011年就发布了他们的第一代智能眼镜,是AR领域的领导者。这次合作我们双方都经过了大量的前期测试,最终证明uSens凌感的三维手势追踪技术能够与Moverio BT-300完美结合,这将成为AR眼镜的一个新标准,它将实现虚拟与真实世界的无缝衔接。

参展者还可以在uSens CES展位体验融合手势及位置追踪功能的Fingo系列模组在PC及移动端的应用,包括Oculus Rift、HTC Vive、三星Gear VR以及 Google Daydream等。

Fingo基础参数:

• 功能实现:26DOF双手骨骼追踪以及6DOF基于特征点的位置追踪
• 系统要求:Android 4.4+, 64bit Windows 8+
• 支持平台: Unity3D, Java, C++, C#
• 产品尺寸: 12.9mm X 37.5mm X 102.4mm
• 镜头参数: 双红外摄像头 640 X 480
• 手势距离: 5cm – 70cm
• 视场角: 水平140° 垂直122°
• 帧率: 60fps
• 延时: 20ms

引用参考Source

本文链接https://news.nweon.com/25656
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯