2022年07月29日美国专利局新申请AR/VR专利摘选

文章相关引用及参考:映维网Nweon

一共更新了26篇专利。

映维网Nweon 2022年07月29日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共26篇。更多专利披露请访问映维网专利板块https://patent.nweon.com/进行检索,你同时可以加入映维网AR/VR专利交流微信群(详见文末)。

1. 《Magic Leap Patent | Physics-based audio and haptic synthesis(Magic Leap专利:基于物理的音频和触觉合成)

在一个实施例中,专利描述了为混合现实系统生成和呈现虚拟音频的系统和方法。一种方法可以包括确定第一对象和第二对象之间的碰撞,其中第一对象包括第一虚拟对象。可以访问存储一个或多个音频模型的存储器。可以确定存储在存储器中的一个或多个音频模型是否包括对应于第一对象的音频模型。根据一个或多个音频模型包括对应于第一对象的音频模型的确定,可以合成音频信号,其中音频信号基于碰撞和对应于第一对象的音频模型,所述音频信号可以通过头戴式装置的扬声器呈现给用户。根据一个或多个音频模型不包括对应于第一对象的音频模型的确定,可以确定第一对象的声学特性,可以生成基于第一对象的声学特性的定制音频模型,可以合成音频信号。其中,所述音频信号基于所述碰撞和所述定制音频模型,并且所述音频信号可以经由头部可穿戴设备的扬声器呈现给用户。

2. 《Magic Leap Patent | Systems And Techniques For Estimating Eye Pose(Magic Leap专利:估计眼睛姿态的系统和技术)

在一个实施例中,眼动追踪系统可以包括配置成在不同曝光时间或不同帧速率下获得眼睛图像的眼动追踪摄像头。例如,曝光时间较长的眼睛图像可以显示虹膜或瞳孔特征,而曝光时间较短的闪烁图像可以显示角膜反射的闪光峰值。短曝光闪烁图像可以以更高的帧速率拍摄,以实现精确的注视预测。可以分析曝光时间较短的闪烁图像,以提供亚像素精度的闪烁位置。曝光时间较长的图像可以分析瞳孔中心或旋转中心。眼动追踪系统可以预测未来的注视方向,并可用于可穿戴显示系统的注视点渲染。

3. 《Magic Leap Patent | Deep Learning System For Cuboid Detection(Magic Leap专利:用于立方体检测的深度学习系统)

在一个实施例中,专利描述了用于立方体检测和关键点定位的系统和方法。在一个方面,可以使用深立方体检测器来同时执行单眼图像中的立方体检测和关键点定位。深度立方体检测器可以包括经过训练卷积神经网络的卷积层和非卷积层,并用于从输入图像中确定卷积特征图。深度立方体检测器的区域求解网络可以使用卷积特征图来确定立方体周围的边界框。深度立方体检测器的池化层和回归层可以实现迭代特征池化,并确定一个细化的分界框和一个参数化的立方体表示。

4. 《Apple Patent | Point Cloud Geometry Compression Using Octrees And Binary Arithmetic Encoding With Adaptive Look-Up Tables(苹果专利:使用八叉树和二进制算术编码的点云几何压缩)

在一个实施例中,编码器配置为使用八叉树几何压缩技术来压缩点云几何信息,所述八叉树几何压缩技术是利用二进制算术编码器,look-ahead table,,高速缓存和情景选择过程。其中,至少部分地根据邻居配置来选择编码情景。以类似的方式,解码器配置为利用二进制算术编码器,look-ahead table,高速缓存和情景选择过程来解码压缩点云几何信息。

5. 《Apple Patent | Multi-resolution voxel meshing(苹果专利:多分辨率体素网格划分)

在一个实施例中,专利描述的各种实现生成表示物理环境中的表面网格。基于检测到的深度信息(例如,来自深度摄像头)并使用多分辨率体素生成网格。所述技术可以使用多个哈希表来存储多分辨率体素数据。例如,哈希表可以存储每个体素的3D位置和对应于每个体素到最近曲面的距离的TSDF值。多个哈希表中的每一个可以包括对应于不同分辨率级别的数据,并且所述分辨率可以取决于距离/噪点或其他因素。

6. 《Apple Patent | Eye tracking system(苹果专利:眼动追踪系统)

在一个实施例中,专利描述了一种用于在头戴式显示器中检测用户眼睛位置和运动的眼动追踪系统。眼动追踪系统包括至少一个眼动追踪摄像头、向用户眼睛发射红外光的照明源和位于目镜处的衍射光栅。衍射光栅重定向或反射从用户眼睛反射的红外光的至少一部分,同时允许可见光通过。摄像头从被衍射光栅重定向或反射的红外光中捕捉用户眼睛的图像。

7. 《Facebook Patent | Methods and systems for low power reconnection(Meta专利:低功率重连方法和系统)

在一个实施例中,专利描述的技术用于恢复第一设备和第二设备之间的无线通信。在一个实施例中,第一设备从睡眠模式进入唤醒模式。在一个实施例中,第一设备响应于进入唤醒模式,获得指示先前用于与第二设备通信的无线信道的存储信息,以监视来自第二设备的信标帧。在一个实施例中,第一设备根据存储的信息从第二设备接收信标帧。在一个实施例中,第一设备响应于接收信标帧而向第二设备发送关联帧。

8. 《Facebook Patent | Systems and methods for beacon alignment for soft access point(Meta专利:用于soft接入点信标对齐的系统和方法)

专利描述了一种与第二设备和第三设备通信的第一设备。在一个实施例中,第一设备确定从第二设备接收第一信标帧的第一时间间隔。在一个实施例中,第一设备根据第一时间间隔确定第一设备向第三设备发送第二信标帧的第二时间间隔。在一个实施例中,第一设备确定第三时间间隔以在唤醒模式下操作第一设备。第三时间间隔可以包括第一时间间隔和第二时间间隔。在一个实施例中,第一设备在第一时间间隔期间从第二设备接收第一信标帧,并在第二时间间隔期间将第二信标帧发送给第三设备。

9. 《Facebook Patent | Reverse pass-through glasses for augmented reality and virtual reality devices(Meta专利:用于增强现实和虚拟现实设备的反向透视眼镜)

在一个实施例中,专利描述的设备用于向旁观者提供头显显示器用户的反向透视视图。所述设备包括目镜,目镜包括光学表面,光学表面被配置为在光学表面的第一侧向用户提供图像。所属设备同时包括第一摄像头,其配置为在第一视场中收集从光学表面反射的用户面部的图像。所属设备进一步包括,与光学表面相邻并配置为向前投影用户面部的图像的显示器,以及配置为接收来自显示器的光并将用户面部图像提供给旁观者的屏幕。

10. 《Facebook Patent | Neural 3d video synthesis(Meta专利:神经3d视频合成)

在一个实施例中,专利描述的方法包括,初始化分别与摄像头捕获场景的训练视频中的帧相关联的时间相关联的latent代码。对于每个帧,系统(1)通过使用与帧相关联的latent代码、与帧相关联的摄像头视点和与像素集相关联的光线方向来查询NeRF,为帧中的一组像素生成渲染像素值,和(2)基于像素集的渲染像素值和原始像素值之间的比较,更新与帧和NeRF相关联的latent代码。一旦训练,系统渲染场景的输出视频的输出帧,其中每个输出帧通过使用与输出帧相关联的期望时间对应的更新latent代码之一查询更新的NeRF来进行渲染。

11. 《Facebook Patent | Micron-Sized Light Emitting Diode Designs(Meta专利:微米级发光二极管设计)

在一个实施例中,发光二极管(LED)的效率通常取决于波长,接面温度和电流密度。小型(微型/微型)LED的优点是散热好和接面温度较低。小型LED在更高电流密度下可以实现更高的效率和更长的元器件寿命。所述专利主要描述了一种微米级发光二极管的设计。

12. 《Facebook Patent | Direct clothing modeling for a drivable full-body avatar(Meta专利:可驱动全身Avatar的直接服装建模)

专利描述了一种用于训练实时、直接服装建模的方法。所述方法包括收集对象的多个图像,基于对象的图像形成三维服装网格和三维人体网格,并将三维服装网格与三维人体网格对齐,以形成皮肤-服装边界和服装纹理。所述方法同时包括基于预测的布料位置和服装纹理,以及来自对象图像的插值位置和服装纹理来确定损失因子,并根据损失因子更新包括三维服装网格和三维人体网格的三维模型。

13. 《Facebook Patent | Deep relightable appearance models for animatable face avatars(Meta专利:用于可设置动画Avatar的深度可重新照明外观模型)

在一个实施例中,专利描述了一种用于向虚拟现实应用提供可重新照明Avatar的方法。所述方法包括检索包括被摄体的多个视图的多个图像,并基于图像生成被摄体的表情相关纹理图和视图相关纹理图。所述方法同时包括,基于表情相关纹理图和视图相关纹理图生成由从沉浸式环境中选择的光源照明的对象视图,并将对象视图提供给在客户端设备中运行的沉浸式现实应用。

14. 《Facebook Patent | Systems and methods for signaling the onset of a user’s intent to interact(Meta专利:用于发出用户交互意图开始信号的系统和方法)

专利描述的方法可以包括:通过生物传感器获取用户生成的生物信号(例如指示注视动力学的生物信号);使用生物信号预测用户与计算系统交互的意图;以及向智能促进子系统提供指示用户交互意图的交互意图信号。专利描述的计算系统可以包括:使用户能够明确地针对一个或多个对象进行交互的目标子系统;使用户能够与一个或多个对象进行交互的交互子系统;以及响应于交互意图信号,代表用户以一个或多个对象为目标的智能促进子系统。

15. 《Facebook Patent | Artificial reality triggered by physical object(Meta专利:由物理对象触发的人工现实)

在一个实施例中,专利描述的人造现实系统基于或响应于与物理环境中的一个或多个物理对象的交互来呈现人造现实内容或人造现实效果。在一个示例中,所述方法包括确定用户已经对触发对象执行了触发动作;响应于确定用户已经执行了触发动作,生成人造现实内容;在与头戴式显示器相关联的显示器呈现人造现实内容;确定用户已经执行了解除触发动作;并且响应于确定用户已经执行了解除触发动作,中断人造现实内容的呈现。

16. 《Facebook Patent | Display panel with backreflection suppression comprising first and second birefringent layers and a reflectivity layer(Meta专利:具有包括第一和第二双折射层以及反射率层的后向反射抑制的显示面板)

在一个实施例中,通过确保由透镜反射的图像光不会被显示面板反射回透镜,可以抑制由于显示面板向目镜反射图像光而形成的伪影。为此,显示面板可以包括在显示面板的顶部偏振器和显示面板内部图像光反射的层之间的四分之一波双折射层,例如黑栅极层或有源矩阵层。

17. 《Microsoft Patent | Generating locations for placement of augmented elements(微软专利:生成用于放置增强元素的位置)

在一个实施例中,专利描述的技术用于在真实世界中放置游戏位置,从而在游戏位置生成游戏元素。在一个实施例中,可以对地理位置数据中描述的物理元素类型进行分类,并根据分类确定物理元素的分数。然后可以根据分数利用游戏位置,并且可以通过用户与可能在游戏位置生成的游戏元素的交互来不断优化分数。

18. 《Microsoft Patent | Mesh hole area detection(微软专利:网格孔洞区域检测)

在一个实施例中,专利描述的技术用于检测网格孔洞区域。在一个实施例中,一种计算机实现方法可以包括:获得代表扫描环境的网格;识别网格的边界边缘;将边界边分组为有序、连接的三维闭合非相交多边形;然后,将多边形分类为孔洞,并确定孔洞的面积。

19. 《Google Patent | Methods and apparatus for adaptive augmented reality anchor generation(谷歌专利:自适应增强现实锚生成方法和装置)

在一个实施例中,专利描述的方法可以包括检测真实世界区域内的表面,其中用户通过移动设备中的图像传感器来补货所述表面。专利描述的方法可以进一步包括,接收增强现实生成指令以生成与真实世界区域内的表面相交的AR锚,其中AR锚位于用于显示AR对象的目标位置。专利描述的方法可以进一步包括,响应AR生成指令并基于交集,定义捕获指令。

20. 《Qualcomm Patent | Context-aware extended reality systems(高通专利:情景感知型扩展现实系统)

专利描述了用于动态调整由扩展现实系统提供的虚拟内容的技术和系统。在衣蛾示例中,系统确定扩展现实系统的用户由于扩展现实系统提供的虚拟内容而分心的程度。系统确定由于虚拟内容引起的用户分心水平是否超过或低于分心阈值水平,其中分心阈值水平至少部分基于与用户所在的真实世界环境相关联的一个或多个环境因素来确定。系统同时基于由于虚拟内容引起的用户分心水平是否超过或低于分心阈值水平的确定来调整虚拟内容的一个或多个特征。

21. 《Intel Patent | Augmentation Modification Based On User Interaction With Augmented Reality Scene(英特尔专利:根据用户与增强现实场景交互的数字内容修改)

在一个实施例中,专利描述了用于根据用户交互来修改增强现实的设备和方法。在一个实例中,用于修改增强现实的设备可以包括处理器,与处理器耦合以捕获物理场景的场景捕获摄像头,以及一个由处理器操作的增强管理模块。增强管理模块可以获取和分析物理场景;根据分析结果生成一个或多个虚拟对象以增强物理场景的渲染;追踪用户与增强场景的交互,以及修改或补充虚拟对象。

22. 《Sony Patent | Video distribution system, video distribution method, and display terminal(索尼专利:视频分发系统,视频分发方法和显示终端)

专利描述的视频分发系统包括图像获取单元,其获取由第一摄像头和第二摄像头捕获的对象的第一图像和第二图像;参数调整单元,其用于调整影响用户对与已获取的第一图像和第二图像表示的虚拟空间中的被摄体相对应的虚拟被摄体的外观参数;以及显示控制单元,其在显示终端显示表示包括与调整后的参数相对应的虚拟对象的虚拟空间的视频。

23. 《Sony Patent | Information processing device, information processing method, and program(索尼专利:信息处理设备,信息处理方法和程序)

专利描述的信息处理设备包括:存储单元,其存储指示通过将真实物理体捕捉到虚拟空间中而获得的第一对象的结构或物理特性中的至少一个的第一信息;以及指定单元,其指定指示虚拟空间中的虚拟对象的第二对象的布置,使得所属布置能够基于第二对象的布置条件和第一信息表达与第一对象的交互。

24. 《Sony Patent | Method, computer program and head-mounted device for triggering an action, method and computer program for a computing device and computing device(索尼专利:用于触发计算设备和计算设备的动作的方法、计算机程序和头戴式设备、方法和计算机程序)

专利描述了一种用于触发与用户视场中的选定对象相关的动作的方法和头戴式设备,包括使用用户佩戴的头戴式设备的大脑活动传感器检测用户的预定义大脑活动模式。预定义的大脑活动模式表示用户选择用户注视的对象的命令。所述方法包括在检测到预定义的大脑活动模式时确定用户的注视方向。所述方法包括在检测预定义的大脑活动模式时捕捉用户视场的图像。所述方法包括,向计算实体提供图像的至少一部分,以使计算实体触发与所选对象相关的动作。

25. 《Sony Patent | Information processing apparatus, information processing method, and information processing program(索尼专利:信息处理设备,信息处理方法和信息处理程序)

在一个实施例中,专利描述了一种信息处理设备,信息处理方法和信息处理程序。专利描述的信息处理设备包括显示控制单元,所述显示控制单元致使显示设备在指示位置显示虚拟对象的标记,所述指示位置是基于用户指示的多个方向确定的位置。

26. 《Sony Patent | Image display apparatus and display apparatus(索尼专利:图像显示设备和显示设备)

在一个实施例中,专利描述的图像显示设备包括图像形成设备、布置在用户面部前面的光学元件和运动控制设备。图像形成装置被布置在位于光学元件后面的区域中。离开图像形成装置的图像从位于光学元件后面的区域斜入光学元件,并从光学元件反射以到达用户的瞳孔。当瞳孔的位置发生变化时,使用移动控制装置移动光学元件,并且使用移动控制设备控制离开图像形成设备的图像位置。

本文链接https://news.nweon.com/99414
转载须知:转载摘编需注明来源映维网并保留本文链接
入行必读:AR/VR——计算机历史第二次大浪潮

更多阅读推荐......

资讯