2022年03月04日美国专利局新申请AR/VR专利摘选

文章相关引用及参考:映维网Nweon

一共更新了30篇专利。

映维网Nweon 2022年03月04日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共30篇。更多专利披露请访问映维网专利板块https://patent.nweon.com/进行检索,你同时可以加入映维网AR/VR专利交流微信群(详见文末)。

1. 《Magic Leap Patent | Systems and methods for augmented reality(用于增强现实的系统和方法)

专利描述的方法包括从高频传感器收集第一组动态输入,从低频传感器收集校正输入点,将接收到的输入与从低频传感器接收到的数据融合,以及基于所述校正输入点,通过完全平移到所述校正输入点或朝向所述校正输入点的阻尼方法来调整来自高频传感器的第二组动态输入的传播路径。

2. 《Magic Leap Patent | Application Sharing(应用分享)

具有第一处理器的主机设备经由第一处理器执行应用。主机设备确定应用程序的状态。产生与应用程序状态相对应的场景图,并将场景图呈现给具有显示器和第二处理器的远程设备。响应于接收到场景图,远程设备将与场景图相对应的视图呈现给显示器,无需经由第二处理器执行应用。

3. 《Magic Leap Patent | Image Correction Due To Deformation Of Components Of A Viewing Device(针对浏览设备组件变形的图像校正)

显示组件在选择位置显示虚拟对象,其中浏览虚拟对象的眼睛具有预期的注视方向。检测显示组件的变形。变形导致虚拟对象在变通的位置可见,其中眼睛改变了注视方向。虚拟对象可以显示在校正位置中,令注视方向比改变的注视方向更接近于预期的注视方向。

4. 《Magic Leap Patent | Augmented Reality Display Device With Deep Learning Sensors(包含深度学习传感器的增强现实显示设备)

头戴式增强现实设备可以包括硬件处理器,所述硬件处理器编程为从多个传感器接收不同类型的传感器数据,如惯性测量单元,前置摄像头,深度感测摄像头,眼睛成像摄像头或麦克风;并利用不同类型的传感器数据和神经网络来确定多个事件中的事件,如面部识别,视觉搜索,手势识别,语义分割,对象检测,照明检测和重定位。

5. 《Magic Leap Patent | Eye Image Selection(眼图选择)

专利描述了用于眼睛图集选择,眼睛图像采集和眼睛图像组合的系统和方法。用于眼睛图集选择的系统和方法可以包括:将确定的图像质量与图像质量阈值进行比较,从而识别出通过图像质量阈值的眼睛图像;从多个眼睛图像中选择一组超过图像质量阀值的眼睛图像。

6. 《Apple Patent | Point Cloud Compression With Multi-Resolution Video Encoding(点包含多分辨视频解码的点云压缩)

专利描述的系统包括:配置为压缩点云属性和/或空间信息的编码器;和/或配置为解压缩点云的压缩属性和/或空间信息的解码器。为了压缩属性和/或空间信息,编码器配置为将点云转换为基于图像的表示,而解码器则配置为根据所述表示来生成解压缩的点云。在一个实施例中,编码器在视频编码之前执行图像帧的downscaling,并且解码器在视频解码之后执行图像帧的upscaling。

7. 《Apple Patent | Localization And Mapping Using Images From Multiple Devices(利用多设备的图像进行定位和映射)

在一个实施例中,电子设备使用运动传感器获取第一图像数据和运动数据。电子设备接收与第二电子设备相对应的信息。电子设备使用第一图像数据、运动数据和与第二电子设备相对应的信息来生成第一电子设备的第一姿态表示。电子设备的显示器显示虚拟对象,其中虚拟对象的显示是基于第一电子设备的第一姿态表示。

8. 《Apple Patent | Optical systems with light-expanding couplers(带扩光耦合器的光学系统)

专利描述的电子设备可以包括为光学系统产生光的显示器。光学系统将光重定向到视窗。光学系统可以包括波导、无衍射耦入器、交叉耦合器和耦出器。交叉耦合器可在第一方向上扩展光。交叉耦合器可对光进行偶数次衍射,并以适合全内反射的角度将光耦回波导。耦出器可在将光耦出波导的同时将光在第二方向上扩展。交叉耦合器可包括嵌入波导内或形成在单独衬底中的表面浮雕光栅或全息光栅。

9. 《Apple Patent | Method for determining at least one parameter of two eyes by setting data rates and optical measuring device(通过设置数据速率和光学测量设备确定双眼至少一个参数的方法)

专利描述的方法包括以下步骤:通过第一捕捉单元光学捕捉两只眼睛的第一只眼睛;通过第二捕获单元光学捕获两只眼睛中的第二只眼睛;从第一捕获单元向分析单元发送关于捕获的第一眼的第一信号,并从第二捕获单元向分析单元发送关于捕获的第二眼的第二信号;基于分析单元中发送的第一和第二信号确定两只眼睛的至少一个参数。

10. 《Facebook Patent | Apparatus, system, and method for transferring radio frequency signals between waveguides and radiating elements in antennas(用于在天线中的波导和辐射元件之间传输射频信号的装置、系统和方法)

专利描述了一种射频耦合结构。所述射频耦合结构包括形成波导顶侧的基板,设置在基板底侧的第一导电层,并入基板内的第二导电层,可通信地耦合到第一导电层并穿过第二导电层中的开口向基板的顶侧延伸的通孔,和/或围绕第一导电层中的通孔形成的环形槽。

11. 《Facebook Patent | Artificial reality augments and surfaces(人造现实增强和表面)

“增强”是三维空间中的虚拟容器,可以包含表示数据、情景和逻辑。人造现实系统可以利用增强作为基本构建块,并在人造现实环境中显示2D和3D模型。例如,“增强”可以表示为人造现实环境中的人、地点和事物,并可以响应情景。“增强”可以位于“表面”之上,表面的布局和属性会致使“增强”以不同的方式显示。

12. 《Facebook Patent | Rate controlled image and texture data compression(速率控制的图像和纹理数据压缩)

在一个实施例中,计算系统可以访问与图像的第一像素区域中的第一像素相关联的第一阿尔法值,并确定用于编码第一阿尔法值的比特预算。然后,计算系统可以为第一阿尔法值选择第一阿尔法编码模式,以反映第一阿尔法值全部完全透明或全部完全不透明的确定;以及通过将所选择的第一阿尔法编码模式存储为元数据的一部分来编码第一阿尔法值,而不使用比特预算来单独编码第一阿尔法值。接下来,计算系统可以基于在第一阿尔法值的编码中未使用的比特预算来更新可用于分配的未分配比特的记录,并且基于未分配比特的记录来分配比特以编码不同于第一阿尔法值的一组阿尔法值。

13. 《Facebook Patent | Rate controlled image and texture data compression(速率控制的图像和纹理数据压缩)

在一个实施例中,计算系统可以访问与图像的第一像素区域中的第一像素相关联的第一阿尔法值,并确定用于编码第一阿尔法值的比特预算。然后,计算系统可以为第一阿尔法值选择第一阿尔法编码模式,以反映第一阿尔法值全部完全透明或全部完全不透明的确定;以及通过将所选择的第一阿尔法编码模式存储为元数据的一部分来编码第一阿尔法值,而不使用比特预算来单独编码第一阿尔法值。接下来,计算系统可以基于在第一阿尔法值的编码中未使用的比特预算来更新可用于分配的未分配比特的记录,并且基于未分配比特的记录来分配比特以编码不同于第一阿尔法值的一组阿尔法值。

14. 《Facebook Patent | Rate controlled image and texture data compression(速率控制的图像和纹理数据压缩)

在一个实施例中,计算系统可以访问与图像的第一像素区域中的第一像素相关联的第一阿尔法值,并确定用于编码第一阿尔法值的比特预算。然后,计算系统可以为第一阿尔法值选择第一阿尔法编码模式,以反映第一阿尔法值全部完全透明或全部完全不透明的确定;以及通过将所选择的第一阿尔法编码模式存储为元数据的一部分来编码第一阿尔法值,而不使用比特预算来单独编码第一阿尔法值。接下来,计算系统可以基于在第一阿尔法值的编码中未使用的比特预算来更新可用于分配的未分配比特的记录,并且基于未分配比特的记录来分配比特以编码不同于第一阿尔法值的一组阿尔法值。

15. 《Facebook Patent | Distributed sensor module for eye-tracking(用于眼动追踪的分布式传感器模块)

在一个实施例中,用于眼动追踪的方法包括使用一个或多个摄像头捕获用户的图像;将用户的捕获图像存储在存储组件中;从存储组件读取用户的捕获图像的下采样版本;通过使用机器学习模型处理下采样版本的捕获图像;检测下采样版本的捕获图像中的一个或多个第一区段。其中,一个或多个第一区段包括从存储设备读取的用户眼睛的特征,捕获图像中的一个或多个第二区段对应于捕获图像的下采样版本中的一个或多个第一区段。最后,基于捕获图像中的一个或多个第二区段计算用户的注视。

16. 《Facebook Patent | Varifocal display with wavelength tuning(波长调谐变焦显示器)

专利描述的显示设备包括衍射光学元件和可调谐光源。当可调谐光源处于第一状态时,可调谐光源提供具有第一波长的第一光,而当可调谐光源处于第二状态时,可调谐光源提供具有不同于第一波长的第二波长的第二光。第一波长和第二波长对应于第一色带。衍射光学元件定位为接收并重定向第一光,以及接收并重定向第二光。衍射光学元件具有用于第一光的第一焦距和用于第二光的不同于第一焦距的第二焦距。

17. 《Facebook Patent | Light guide display assembly for providing expanded field of view(用于扩大视场的光导显示屏组件)

专利描述的设备包括一个或多个光导。所述设备同时包括配置成将具有第一输入视场的第一光耦合到第一光导中的第一耦入元件,以及配置成将具有第二输入FOV的第二光耦合到第二光导中的第二耦入元件。所述设备同时包括第一耦出元件,后者配置为将第一光从第一光导耦出,并作为具有第一输出FOV的第一输出光。所述设备同时包括第二耦出元件,后者配置成将第二光从第二光导耦出,作并为第二输出光。第一输出视场和第二输出视场的组合大于第一输出视场或第二输出视场中的至少一个。

18. 《Facebook Patent | Pupil steered display(光瞳控制显示器)

显示设备可包括多个平铺空间光调制器,其将图像信息传递到各个光束以获得图像光束。光瞳控制光学器件配置成可控制地将图像光束引导到显示设备的视窗内相同或不同的出瞳位置。眼动追踪系统提供用户眼睛的位置信息,以允许光瞳控制光学元件能够将至少一定的图像光束引导到所需的出瞳位置。

19. 《Facebook Patent | Optical module comprising lens assembly(包含透镜组件的光学模组)

在一个实例中,专利描述的装置包括透镜组件,其包括一个或多个聚合物层,每一层包括透镜部分和延伸部分。专利描述的装置同时包括图像传感器,其位于透镜组件下方并通过粘合层粘合到透镜组件,并且配置成感测穿过一个或多个聚合物层的透镜部分的光聚合物层。

20. 《Facebook Patent | Coupling light source to photonic integrated circuit(将光源耦合到光子集成电路)

在专利描述的一个实施例中,专利描述的设备或系统包括光源、光波导和导光器。在一个实施例中,光源发出照明光。在一个实施例中,光波导包括光耦入器。在一个实施例中,导光器接收照明光并产生成形光。在一个实施例中,照明控制器调整照明光的倾斜角和/或发散角。

21. 《Facebook Patent | Fluidic devices and related haptic systems and methods(射流设备及相关触觉系统和方法)

射流设备控制流体在从源到通道中的流动。在一个实施例中,射流设备包括闸门、通道和障碍物。闸门包括至少一个腔室,其体积随流体压力增加而增加。闸门的高压状态对应于第一腔室尺寸,闸门的低压状态对应于小于第一腔室尺寸的第二腔室尺寸。障碍物根据闸门中的流体压力控制通道内的流体流速。根据闸门的低压状态,障碍物在通道中最多诱导流体的第一流速,并且根据闸门的高压状态,在通道中至少诱导流体的第二流速。

22. 《Microsoft Patent | Mixed reality image capture and smart inspection(混合现实图像捕获和智能检测)

混合现实图像捕获系统执行操作,引导用户到达预定义的有利位置,以确保从一致的有利位置捕获图像。专利描述的系统包括一个混合现实帧对齐工具,所述工具控制投影光学器件在camera视场内投影第一个虚拟目标和第二个虚拟目标。第一虚拟目标投影在camera视场内相对于所识别的真实世界锚定对象固定的第一位置,第二虚拟目标投影在camera视场内相对于摄像头位置固定的第二位置。当用户相对于真实世界的锚定对象移动camera时,混合现实帧对齐工具会动态更新第二个虚拟目标的位置,以镜像camera的移动。系统同时包括图像捕获工具,当第一位置和第二位置满足预定义的空间关系时,图像捕获工具捕获真实世界对象的照片。

23. 《Microsoft Patent | Manipulator-based image reprojection(基于操纵者的图像重投影)

专利描述的方法包括接收包含与用户参考帧相关联的内容的第一渲染图像,接收包含与操纵者参考帧相关联的内容的第二渲染图像,以及基于用户的头部姿势重新投影第一渲染图像,从而产生第一重新投影图像。所述方法同时包括基于用户的头部姿势和操纵者的姿势重新投影第二渲染图像,从而产生第二重投影图像,然后输出第一重投影图像和第二重投影图像以显示为合成图像。

24. 《Google Patent | Volumetric performance capture with relighting(带重照明的体三维表演捕获)

专利描述的照明舞台包括多个以预定频率将交替的球形颜色梯度照明图案投射到物体或人类表演者的灯。照明舞台同时包括多个摄像头,其捕捉与交替球形颜色梯度照明图案相对应的对象或人类表演者的图像。照明舞台同时包括多个深度传感器,其以预定频率捕捉对象或人类表演者的深度映射。照明舞台同时包括(或与之相关联的)一个或多个处理器,后者实现机器学习算法以产生对象或人类表演者的三维(模型。三维模型包括用于在不同照明条件下重新照明三维模型的重新照明参数。

25. 《Google Patent | Video background subtraction using depth(使用深度的视频背景删除)

专利描述的方法包括接收包括深度数据和颜色数据的多个视频帧。所述方法同时包括对视频帧进行下采样。所述方法同时包括,对于每个帧,生成初始分割掩码,掩码将帧的每个像素分类为前景像素或背景像素。所述方法同时包括确定将帧的每个像素分类为已知背景、已知前景或未知的trimap。所述方法同时包括,对于分类为未知的每个像素,计算权重并将其存储在权重图中。所述方法同时包括执行精细分割以获得每个帧的二进制掩码。所述方法同时包括基于每个帧的二进制掩码对多个帧进行上采样,以获得前景视频。

26. 《Intel Patent | Low latency communication path for audio/visual (a/v) applications(用于音频/视频(A/V)应用的低延迟通信路径)

专利描述的实施例涉及控制器子系统。控制器子系统包括虚拟现实子系统,其用于:将从外设接收的数据识别为与外设的音频/视频(A/V)功能相关的数据;基于所述数据与所述外围设备的A/V功能相关的识别,直接将所述数据存储在所述控制器子系统的存储器子系统中。控制器子系统同时包括促进将存储器子系统中数据的存储位置的指示传输到与控制器子系统通信耦合的主机系统。控制器子系统同时包括图形引擎,其用于:基于数据存储位置指示的传输,在从主机系统接收的消息中识别与呈现数据相关的指令;以及基于从外围设备接收的数据生成渲染数据。

27. 《Intel Patent | Dynamic configuration of a virtual keyboard(动态配置虚拟键盘)

专利描述的系统包括用于显示虚拟键盘的电子显示器和可通信地耦合到电子显示器的处理器。在一个实施例中,虚拟键盘包括多个键。在一个实施例中,电子显示器接收第一串擦除字符和第二串替换字符。在一个实施例中,处理器比较第一字符串和第二字符串,以确定第一字符串和第二字符串的对应字符位置处的差异。在一个实施例中,处理器基于比较增加计数器,计数器对应于第一字符串的第一个字符和第二字符串的第二个字符。在一个实施例中,处理器响应于计数器达到阈值,调整虚拟键盘的多个键中的至少一个。

28. 《Sony Patent | Image rendering system and method(图像渲染系统和方法)

专利描述的图像渲染指令生成系统包括对象识别单元,其用于识别一个或多个用于在虚拟场景中渲染的对象;着色器识别单元,其用于识别用于渲染所识别对象的着色器,其中,所述着色器包括对应于不同细节级别的两个或多个着色处理、绘制调用生成单元和绘制调用输出单元,所述绘制调用生成单元可用于生成包含所识别着色器的绘制调用,所述绘制调用输出单元可用于将生成的绘制调用提供给图像渲染系统。

29. 《Sony Patent | Transparent smartphone(透明手机)

专利描述了一种用于在移动计算设备渲染增强现实场景的方法和系统,使用一个或多个基于事件的视觉传感器之宗真实世界场景和/或用户的视点,并基于用户的视点和真实世界场景的场景地图等,混合在移动计算设备显示的增强现实场景。

30. 《Sony Patent | Automatic positioning of head-up display based on gaze tracking(基于视线追踪的平视显示器自动定位)

专利描述了一种平视显示器(HUD)的放置方法。所述方法包括:向用户呈现用于显示的虚拟环境的视图;当用户参与与虚拟环境的视图的交互时,追踪用户的注视点。生成注视点数据,注视点数据标识在交互期间用户的注视指向。使用注视点数据确定HUD在视图中定位的首选位置;在视图中将HUD定位在首选位置。

本文链接https://news.nweon.com/94959
转载须知:转载摘编需注明来源映维网并保留本文链接
入行必读:AR/VR——计算机历史第二次大浪潮

更多阅读推荐......

资讯