映维网资讯 https://news.nweon.com/ 影响力虚拟现实(VR)、增强现实(AR)、混合现实(MR)产业信息数据平台 Fri, 13 Jun 2025 13:02:04 +0000 zh-CN hourly 1 Bug满天飞,2个月Meta发了6个Quest v76更新及补丁 https://news.nweon.com/130340 Fri, 13 Jun 2025 13:02:04 +0000 https://news.nweon.com/130340 几乎每周一次努力“打补丁救火”]]> 查看引用/信息源请点击:映维网Nweon

几乎每周一次努力“打补丁救火”

映维网Nweon 2025年06月13日)2025年4月8日,MetaQuest系列头显正式发布了v76版本更新,但随后在不到两个月的时间内,Meta又连续推出了5个小版本补丁(76.1023 至 76.1027),几乎是每周一次在努力“打补丁救火”。

最初的 v76.0 主要涉及两个关键更新

  • Horizon Worlds更名为“Worlds”:Meta试图将其社交VR平台进一步简化整合,让用户在进入虚拟空间时更加直观。

  • 广告ID管理功能上线:用户现在可以在设置中启用或关闭广告ID,从而决定是否允许开发者使用该标识展示个性化广告(不过,该功能尚未向所有用户开放)。

随后五个补丁版本更新如下:

  • v76.1023

    • 修复多个Bug。

    • 提升系统性能与稳定性。

  • v76.1024

    • 持续修复Bug。

    • 微调用户体验。

  • v76.1025

    • 增加浅色显示主题设置。

    • 持续Bug修复与体验优化。

  • v76.1026

    • 增强IT设备管理功能:新增五个锁定设置(软件更新、Quest Link、虚拟键盘、Passthrough、时间设置),方便企业集中控制。

    • Bug修复与系统稳定性改进。

  • v76.1027

    • 优化“显示主题设置”的可发现性。

    • 继续修复Bug,改善整体流畅度。

]]>
XR日报:Meta已知Quest v77 Bug后仍推送,Meta申请眼动追踪自动校准系统专利 https://news.nweon.com/130324 Fri, 13 Jun 2025 01:10:02 +0000 https://news.nweon.com/130324 本日报由AI生成,可能存在信息错误,具体可查看原文。]]>

本日报由AI生成,可能存在信息错误,具体可查看原文。

◐ Meta CTO承认Quest v77版本存在已知Bug后仍坚持推送更新

Meta首席技术官安德鲁·博斯沃思在Instagram AMA中证实,团队在推送Quest v77系统更新前已通过PTC测试渠道获知存在的音频解码、透视模式等故障,但仍决定向公众发布该版本。这是继5月中旬开发者抗议Horizon OS更新过快导致稳定性问题后,Meta再次因质量控制问题引发争议。Virtual Desktop开发者戈丁指出,多个关键Bug在测试阶段已被报告但遭忽视。博斯沃思解释该决策是权衡利弊的结果,部分修复需等待高通固件更新,目前团队正优先处理受影响开发者的关键问题。

◐ 谷歌申请AR眼镜多材料结构专利,优化天线性能与结构强度

谷歌提交了一项关于AR眼镜多材料结构的专利,通过差异化材料组合解决传统设计中天线性能与结构强度的矛盾。专利显示眼镜框架采用上部高刚度金属/碳纤维材料(导热性强、射频渗透性低)与下部高射频磁导率塑料/陶瓷材料(聚四氟乙烯等)的组合结构,使集成在下部框架的天线效率提升30%以上,同时整体结构保持足够的刚性。该设计支持波导显示器精准定位,并可通过3D打印实现材料梯度过渡,适用于需要维持毫米波通信质量的AR眼镜产品。

◐ Meta申请眼动追踪系统校准专利,支持头显设备自动校准

Meta公司提交了一项关于AR/VR头显眼动追踪系统校准技术的专利,该技术通过可拆卸校准装置实现设备使用过程中的自动校准。校准装置包含不同高度的3D柱体和模拟眼球的反射球体(直径8-10mm),利用头显内置摄像头采集这些校准目标的图像数据,结合红外光源反射计算摄像头位置偏差,从而更新眼动追踪参数。专利显示该校准过程可在设备充电时自动触发,解决因跌落或温度变化导致的追踪精度下降问题,支持Quest系列头显在非工厂环境下维持亚毫米级眼动追踪准确性。

◐ VR游戏《僵尸部队VR》登陆Meta Quest和Steam平台

Rebellion开发的VR射击游戏《僵尸部队VR》已正式发售,支持Meta Quest和Steam平台,售价108元/29.99美元。游戏延续了”僵尸部队”系列世界观,玩家将作为精英战士在欧洲战场对抗丧尸潮,支持体感操作武器和标志性的X光击杀镜头。

◐ VR MMORPG《Ilysia》今夏转型免费模式,付费玩家可获专属创始人礼包

科幻题材VR MMORPG《Ilysia》宣布将在夏季从付费模式转为免费模式,目前该游戏在Steam和Meta Quest平台的售价为58元/14.99美元。开发商Team 21 Studio表示,已购买游戏的玩家将获得包含特殊道具、独特称号和专属皮肤的”创始人包”作为补偿。这一转变顺应了当前游戏行业从付费转向免费模式的趋势。

◐ 清华大学等创新3DGS框架GS-Cache实现城市级场景120FPS双目2K渲染

上海人工智能实验室与清华大学研究团队提出GS-Cache框架,该框架通过缓存优化、弹性调度和CUDA内核加速,实现了3D高斯泼溅(3DGS)模型的高效渲染。在消费级GPU上,GS-Cache使城市级3D场景的渲染性能提升5.35倍,延迟降低35%,内存占用减少42%,并支持2K双目120FPS的实时渲染,为VR应用提供了可行的解决方案。

◐ 研究团队为突破XR边缘计算瓶颈,提出高效DiT模型压缩方案

伊利诺伊大学厄巴纳-香槟分校(UIUC)团队针对扩散Transformer(DiT)模型在边缘设备的部署难题,提出系统性优化方案。通过设计空间探索,团队确立了深度、宽度、注意力头数等关键参数的选择原则,并验证传统知识蒸馏方法(如TA和MI1)在DiT场景效果有限。实验显示,基于原则性设计的轻量化学生模型在NVIDIA Jetson Orin Nano平台实现3倍参数压缩,同时保持FID指标优于现有方法。该研究为AR/VR设备本地化运行Stable-Diffusion级模型提供了可行性路径,相关成果已发表于论文《Designing Parameter and Compute Efficient Diffusion Transformers using Distillation》。未来工作将扩展至MLP比率等参数优化,并探索分层注意力头定制技术。

]]> Meta CTO承认Quest v77版本存在已知Bug后仍坚持推送更新 https://news.nweon.com/130323 Fri, 13 Jun 2025 01:02:03 +0000 https://news.nweon.com/130323 Meta首席技术官安德鲁·博斯沃思日前承认,尽管知道Quest v77存在Bug,但团队依然向公众推送了这个版本。]]> 查看引用/信息源请点击:映维网Nweon

Meta首席技术官安德鲁·博斯沃思日前承认,尽管知道Quest v77存在Bug,但团队依然向公众推送了这个版本。

映维网Nweon 2025年06月13日)Meta首席技术官安德鲁·博斯沃思日前承认,尽管知道Quest v77存在Bug,但团队依然向公众推送了这个版本。

Meta大约在三周前开始推送v77,但根据社区反馈,这个版本依然存在大量的Bug。例如,热门VR串流工具Virtual Desktop背后的开发者盖伊·戈丁(Guy Godin)就公开点名博斯沃思,并吐槽他的质量控制再次失败,因为v77版本存在各种Bug,包括音频,透视模式切换,VP8视频解码,以及MediaCodec等方面的问题。

实际上,由于Horizon OS的升级十分频繁,开发者早就开始抱怨快不一定代表好,因为Meta迭代快的代价是性能问题和Bug。

延伸阅读性能下降、Bug频出!Quest HorizonOS频繁更新引发开发者不满
延伸阅读Meta CTO回应Horizon OS更新争议:承认电池保护功能问题,承诺即将修复

在5月中旬,Meta首席技术官安德鲁·博斯沃思回应了开发者的不满,并承诺会“认真对待”。他当时表示:“开发者们就稳定性和我们所做的改变进行了讨论和反馈。我认为这是非常好的反馈。我们会认真对待……我不认为我们更新的速度过快。但我确实认为,在产品推出之前,我们必须有一套更强有力的质量控制流程,而我们正在采取措施……我们一如既往地感谢来自开发者的反馈,我们会认真对待你的反馈。这是我们的责任,这是我们的问题,我们会进行改正。我们知道这不能轻视,而是非常重要的事情,因为这关乎大家的体验。所以,是的,我们会认真对待,我们正在努力解决问题。”

然而,对于在5月下旬推送的v77,问题依然没有改善。这引起了开发者社区的普遍不满。例如,热门VR串流工具Virtual Desktop背后的开发者盖伊·戈丁(Guy Godin)就公开点名博斯沃思,并吐槽他的质量控制再次失败,因为v77版本存在各种Bug,包括音频,透视模式切换,VP8视频解码,以及MediaCodec等方面的问题。

戈丁进一步指出:“真棒,忽略了大家在PTC期间提供的报告反馈,不管不顾地继续推送这个版本。”

在日前的Instagram AMA中,有人就谈到X社区对博斯沃思的普遍不满,并询问他是否知道具体的原因。

这位Meta首席技术官回应道,他十分清楚,而且承认,尽管知道Quest v77存在Bug,但团队依然向公众推送了这个版本。

他如是说道:

我们实际上有在PTC中看到了相关的问题。由于我无法解释的原因,我们依然选择了推送。

大家说‘你怎么能这样!?’ 怎么说呢,这些Bug不会影响太多人。但它们确实会影响到我非常关心的开发者,它们同时会影响到我非常关心的特定人群。

我们正在修复问题。其中一些需要高通的固件更新,所以我们需要等待。

我们正在紧急处理这件事情。我们感到非常难受。有很多原因使得我们必须继续推送更新,这是一个权衡利弊的决定。

这是一个需要等待的过程。我们正在努力解决问题。

]]>
谷歌申请AR眼镜多材料结构专利,优化天线性能与结构强度 https://news.nweon.com/130321 Fri, 13 Jun 2025 00:52:05 +0000 https://news.nweon.com/130321 多材料眼镜装置]]> 查看引用/信息源请点击:映维网Nweon

多材料眼镜装置

映维网Nweon 2025年06月13日)AR眼镜显示器通常使用一个或多个天线来实现与其他设备的通信。然而,眼镜显示器的材料会对天线的性能或效率产生负面影响。

]]>
Meta申请眼动追踪系统校准专利,支持头显设备自动校准 https://news.nweon.com/130319 Fri, 13 Jun 2025 00:52:03 +0000 https://news.nweon.com/130319 校准眼动追踪系统]]> 查看引用/信息源请点击:映维网Nweon

校准眼动追踪系统

映维网Nweon 2025年06月13日)眼动追踪(ET)对于AR/VR头显的一系列应用和功能变得越来越重要。通常情况下,工厂会在将头戴式设备发布给客户之前对其进行校准。但发货后的产品可能会受到各种机械或热效应的影响。例如,在产品的使用寿命期间,头戴式设备可能会跌落,或暴露于各种温度变化之中,并造成眼动追踪性能的下降。

]]>
VR游戏《僵尸部队VR》登陆Meta Quest和Steam平台 https://news.nweon.com/130317 Fri, 13 Jun 2025 00:50:04 +0000 https://news.nweon.com/130317 售价人民币108元/29.99美元]]> 查看引用/信息源请点击:映维网Nweon

售价人民币108元/29.99美元

映维网Nweon 2025年06月13日)备受期待的《僵尸部队VR》已于日前正式发行,支持Meta QuestSteam,售价人民币108元/29.99美元。

《僵尸部队VR》基于Rebellion的热门射击游戏“僵尸部队”,并旨在帮助你通过沉浸式头显来体验丧尸末日的恐惧,刺激和令人毛骨悚然的紧张感。

在故事中,尽管丧尸希特勒已经失败,但丧尸群依然在肆虐,欧洲尚未摆脱战火的蹂躏。作为,这一次你将会重返战场,加入行尸猎人的行列,并作为精英战队全力奋战,力图终结末日。

团队表示:“虚拟现实技术为这款紧张刺激的动作游戏带来了全新层面的沉浸感。你可以使用双手来对准步枪的瞄准视野,并在近距离贴身作战时双持手枪和冲锋枪。你同时需要熟练掌握换弹方法,应对成群结队向你冲来的丧尸。”

另外,X光击杀镜头强势回归,允许你用慢动作重温远距离击杀的荣耀瞬间。

《僵尸部队VR》已于日前正式发行,支持Meta QuestSteam,售价人民币108元/29.99美元。

]]>
VR MMORPG《Ilysia》今夏转型免费模式,付费玩家可获专属创始人礼包 https://news.nweon.com/130315 Fri, 13 Jun 2025 00:50:03 +0000 https://news.nweon.com/130315 将于夏天转为F2P模式]]> 查看引用/信息源请点击:映维网Nweon

将于夏天转为F2P模式

映维网Nweon 2025年06月13日)《Mannequin》、《Frenzies》、《Guardian Of Realms》……越来越多的游戏选择从付费模式转为F2P模式。现在,又一款VR游戏《Ilysia》宣布将于夏天转为F2P模式。

《Ilysia》是一款以科幻世界作为背景的VR MMORPG游戏。你可以独自或与盟友一起冒险,并完成任务,提高等级,磨练技能,学习新的行业和解决危险的挑战。游戏目前支持SteamMeta Quest,售价人民币58元/14.99美元。

为了顺应F2P游戏正在成为主流的趋势,一系列的游戏厂商都把原来的付费游戏转为F2P模式,而《Ilysia》同样选择加入其中。

对于原本付费的玩家,开发团队Team 21 Studio表示,老用户将能获得所谓的“创始人包”,包括一个特殊道具,一个独特称号,以及专门的皮肤饰品等等。

]]>
清华大学等创新3DGS框架GS-Cache实现城市级场景120FPS双目2K渲染 https://news.nweon.com/130313 Fri, 13 Jun 2025 00:44:04 +0000 https://news.nweon.com/130313 在消费级设备渲染大规模3DGS模型]]> 查看引用/信息源请点击:映维网Nweon

在消费级设备渲染大规模3DGS模型

映维网Nweon 2025年06月13日)在消费级设备渲染大规模3DGS模型面临着实现实时、高保真性能的重大挑战。要在虚拟现实等应用中充分发挥3DGS的潜力,就需要解决关键的系统级挑战,以支持实时的沉浸式体验。

在一项研究中,上海人工智能实验室和清华大学团队提出了GS-Cache。这个端到端框架无缝集成了3DGS的高级表示和高度优化的渲染系统。

GS-Cache引入了一个以缓存为中心的管道来消除冗余计算,一个用于弹性多GPU渲染的效率感知调度程序,以及优化的CUDA内核来克服计算瓶颈。这种3DGS和系统设计之间的协同作用使得GS-Cache能够实现高达5.35倍的性能提升,减少35%的延迟,降低42%的GPU内存使用,并支持超过120 FPS的2K双目渲染。

通过弥合3DGS的表示能力与VR系统需求之间的差距,GS-Cache为沉浸式环境中的实时神经渲染建立了一个可扩展且高效的框架。

实时渲染高质量、大规模的3D场景是一项资源密集型任务。3D场景的渲染在包括虚拟现实、增强现实和元宇宙在内的诸多领域都起着至关重要的作用。

神经辐射场NeRF和3DGS作为3D重建和渲染的新方法,能够渲染出令人难以置信的真实感和细节图像,支持各种对视觉感知要求非常高的应用。随着对更精细场景质量和更大场景规模的需求增加,新的方法如结构化高斯推导方法不断出现。

3DGS方法实现了大规模场景的重建,支持城市级3DGS模型训练。然而,大规模场景实时渲染的计算和内存强度随着场景规模的扩大而显著增加,一般的解决方案通常涉及计算资源的扩大。

结构化高斯推导方法实现了高质量的重建,从模型结构上一定程度上降低了大尺度场景实时渲染的难度,是实现VR大尺度场景逼真渲染最有前途的方法之一。因为VR渲染对质量和性能的要求明显高于其他应用。

目前的3DGS渲染管道是两只眼睛交替渲染图像,不足以支持沉浸式VR体验所需的帧率(每只眼睛72 FPS的最低要求意味着总共至少144 FPS)。

上海人工智能实验室和清华大学团队在结构化3DGS模型OctreeGS进行了实验,跟踪FPS并分析推理时间开销。他们指出,FPS会随着视角的提升而下降。很大一部分推理时间花在推导阶段,这是一个主要的开销。正如大型语言模型使用KV缓存来加速推理一样,团队考虑使用缓存来加速3D模型推理。

渲染通常是一个连续的过程,在连续的帧之间有很多重叠。重叠区域重用前一帧的数据,导致颜色差异很小。有其他研究人员提到,人眼很难辨别细微的颜色变化。所以,团队设计了一个带有动态缓存的弹性渲染框架来存储以前的数据,从而加速渲染。

研究人员提出了一种用于大规模高斯飞溅渲染的计算框架GS-Cache,其中场景包含的区域达到几平方公里的城市级规模,从而实现双目2K分辨率头戴式显示器的实时渲染帧率要求,如图5所示。架构图的中间部分表示整个框架的主要结构,右侧显示其弹性并行调度器结构,左侧显示以缓存为中心的渲染管道结构。弹性并行调度程序动态调度GPU资源,稳定FPS,避免资源浪费。

对于结构化的3DGS模型,将原有的管道转换为以缓存为中心的管道,目的是基于冗余和重用的原则提高渲染速度。另外,针对结构化高斯派生渲染管道中一般计算模式的瓶颈阶段,研究人员引入了专用的CUDA内核进行进一步加速,提高了长时间渲染时实时渲染的帧率性能。

3D重建场景的渲染过程涉及到对学习到的3D空间特征的推理和转换,这使得传统的专注于1D或2D特征(如文本和图像)的计算框架在相关任务中很弱,如Pytorch、Tensorflow、JAX等。这种深度学习框架具有通用性和可扩展性,足以实现神经渲染方法(如NeRF和3DGS)的基本计算管道。然而,在渲染应用程序的进一步开发中实现易用性是一个挑战,并且缺乏专门的算子来支持高维空间的稀疏计算,导致渲染管道的计算速度无法实现实时渲染。

一系列用于神经渲染的专用框架,如NeRFStudio和Kaolin-Wisp,通过模块化提高了模型结构实验研究的易用性;以及用于稀疏计算的专用算子库,如Nerfacc,通过加速NeRF计算管道中的特定阶段,提高了整体渲染速度。尽管它们建立了强大的社区影响力,并迅速推动了NeRF、3DGS等神经渲染的相关研究,拓展了基于神经渲染的应用领域,但渲染速度依然难以支持大规模场景中沉浸式VR体验的实时渲染帧率要求。

相反,GS-Cache框架提供了一种全新解决方案。优化后的计算管道消除了计算冗余,为沉浸式VR体验进行有效的计算重用,并在渲染过程中灵活调度GPU计算资源,确保稳定、高的渲染帧率,优化消费级GPU资源的能效。

另外,它通过专门的CUDA内核加速了管道中的主要计算瓶颈,进一步提高了VR渲染的性能。

相关论文GS-Cache: A GS-Cache Inference Framework for Large-scale Gaussian Splatting Models

总的来说,团队展示了一种面向结构化高斯推导方法的渲染框架GS-Cache框架,它可以实现包括城市和街道高斯重构场景在内的大规模场景实时渲染,能够满足沉浸式VR体验的高速和高保真要求。

他们的关键贡献包括以缓存为中心的去冗余渲染管道,支持多GPU并行和弹性调度的渲染框架,以及用于计算瓶颈阶段的专用CUDA内核。在实验中,团队验证了GS-Cache框架相较于基线方法实现了显著的性能提升,在消费级GPU等资源有限的情况下,能够满足双眼2K分辨率大于72FPS和大于120FPS的帧率要求,且不会造成明显的质量损失。

]]>
研究团队为突破XR边缘计算瓶颈,提出高效DiT模型压缩方案 https://news.nweon.com/130311 Fri, 13 Jun 2025 00:44:03 +0000 https://news.nweon.com/130311 设计参数和计算效率高的Dit]]> 查看引用/信息源请点击:映维网Nweon

设计参数和计算效率高的Dit

映维网Nweon 2025年06月13日)具有数十亿个模型参数的Diffusion Transformer(DiT)构成了DALL.E,Stable-Diffusion和SORA等流行图像和视频生成模型的主干。尽管相关模型在增强现实/虚拟现实等低延迟应用中十分必要,但由于其巨大的计算复杂性,它们无法部署在资源受限的边缘设备,如Apple Vision Pro或Meta Ray-Ban眼镜。

为了克服这个问题,伊利诺伊大学厄巴纳-香槟分校团队转向Knowledge Distillation,并执行彻底的设计空间探索,以实现给定参数大小的最佳DiT。特别是,团队提供了如何选择design knob的原则,如深度,宽度,attention head。

在模型性能、大小和速度之间出现了三方面的权衡,而这对边缘实现扩散至关重要。研究人员同时提出了两种蒸馏方法Teaching Assistant (TA)和Multi-In-One (MI1),以在DiT上下文中执行特征蒸馏。

由于其高保真度、可泛化性、易于训练和可扩展性,DiT已经成为生成图像和视频的重要方法。DiT构成了各种实际部署的图像和视频生成模型的支柱,例如DALL.E,Stable-Diffusion和SORA。

出于模型的大参数大小和计算复杂性,必须使用云服务来远程运行它们。从云到边缘的数据传输相关的显著延迟无法为需要在资源受限的边缘设备实现的高帧率应用提供支持,例如增强现实/虚拟现实。

在边缘设备直接实现神经网络推理的主要挑战来自边缘硬件有限的内存和能量容量。为了解决这个问题,我们需要设计参数和计算效率高的Dit。

边缘设备通常拥有几兆字节的片上存储器,现有的实用模型则需要模型尺寸百万参数的数量级,涉及数十亿个参数。

先前关注高效Dit的研究只对特定层进行优化,或者只关注精度,或者没有推动实现预期性能所需的参数限制。伊利诺伊大学厄巴纳-香槟分校团队的重点不是通过新颖的算法方法提供SOTA DiT模型。相反,目标是使用有原则的设计选择,在给定的参数大小下提供最佳的DiT模型(在性能和速度方面)。

对于设计空间探索,在提取DiT模型的几个design knob中,研究人员选择了以下最相关的几个——深度、宽度、attention head,以及用于提取的设置(损失函数和teacher模型)。前两个knob影响效率和性能,后两个knob只影响性能。

尽管时间步长十分重要,但团队不认为它是一个design knob,因为业界已经对其进行了广泛的研究。

下面团队提出了两种方法来探索DiT的新蒸馏设置:

  • Teaching Assistant (TA):用于提取卷积网络,而团队探索了使用具有LPIPS损失的teacher和TA组合特征蒸馏的可能性。

Multi-In-One (MI1):通过将扩散样本映射到student的特定层,在单个步骤中执行多个扩散时间步。采用前向扩散概率流ODE,利用多步扩散的teacher模型的噪点-图像对计算中间噪点图像。

表3表明,使用TA进行特征蒸馏没有帮助。只有直接使用TA的蒸馏提供了边际效益。MI1的性能比基线差,如表4所示。

需要注意的一个关键方面是,中间层的约束并不是导致性能较差的原因,因为(2,4,6)的性能优于(3,6)。最后,团队将基线方法与唯一基于SOTA扩散的transfomer模型进行了模型参数蒸馏比较,并在所有指标上都打败了它们,包括模型大小、FID和延迟。

相关论文Designing Parameter and Compute Efficient Diffusion Transformers using Distillation

总的来说,团队对DiT蒸馏进行了彻底的设计空间探索,并提供了获得给定模型尺寸的SOTA DiT的设计原则。当DiT在NVIDIA Jetson Orin Nano实现时,团队确定了模型性能-尺寸-速度之间的关键权衡,并可以指导未来研究人员在实际领域进行创新。

对于这个研究,研究人员同时希望强调在将新方法与先前的作品进行比较之前,创建强大而明显的基线的实践。尽管TA方法略优于基线,但结论是,与TA和MI1方法相比,根据原则设计的student模型是一个更好的选择,因为它的训练成本更低。

未来的方向可以包括分析地证明上述指导方针,或将设计空间扩展到MLP比率和扩散时间步等knob,或为每个层定制attention head,特别是因为改变attention head大小会对延迟产生影响。

]]>
XR日报:惠普谷歌光场通话售价18万,三星谷歌MR头显或7月发布 https://news.nweon.com/130308 Thu, 12 Jun 2025 01:08:02 +0000 https://news.nweon.com/130308 本日报由AI生成,可能存在信息错误,具体可查看原文。]]>

本日报由AI生成,可能存在信息错误,具体可查看原文。

◐ 售价18万人民币,惠普推出谷歌光场通话Project Beam全息会议系统HP Dimension

惠普正式推出基于谷歌Project Beam光场技术的HP Dimension全息会议系统,定价24,999美元(约18万元人民币)。该设备配备65英寸光场显示屏和6个高速摄像头,可实现真人比例3D视频通话,需额外购买Beam软件许可支持Zoom/Google Meet。企业测试数据显示,相比传统视频会议,使用该系统的参会者记忆力提升28%、非语言交流增加39%、专注度提高14%。系统支持三种会议模式:3D一对一沉浸通话、2D小组会议及云端视频服务。惠普表示,这是首款将实验室级光场技术商用化的企业通信解决方案,旨在通过逼真的虚拟交互提升远程协作效果。

◐ 三星与谷歌合作MR头显”无限”或于7月Unpacked大会发布

据知名爆料人PandaFlash透露,三星与谷歌联合开发的MR头显”无限”计划在2025年7月的Unpacked大会上正式发布。该设备将采用索尼1.3英寸硅基OLED显示屏,分辨率达3800 PPI,优于Apple Vision Pro的1.42英寸3391 PPI屏幕。韩国媒体此前报道称,三星已开始生产相关零部件,预计首批出货量最高10万台,设备重量将优于竞品,售价接近Apple Vision Pro。值得注意的是,原定7月4日举办的Unpacked 2025可能推迟至7月中旬,但三星尚未官方确认具体日期。

◐ 斯坦福、谷歌研究证实几何感知透视技术可显著降低VR晕动症

斯坦福大学与谷歌团队通过系统性研究验证,采用几何感知透视(GAP)技术的VR头显可显著改善用户舒适度。该研究首次提出量化评估框架,对比传统直接透视与基于深度重投影的GAP系统,发现后者能降低41%的晕动症症状(恶心、定向障碍等)。研究设计包含三类典型场景测试:键盘输入、空间导航及近场交互,证实GAP技术通过精确校正摄像头与眼位的视差,有效缓解视觉-前庭系统冲突。尽管GAP可能引入5-8%的图像形变,但用户研究显示其舒适度提升效果显著(p<0.01)。该成果为下一代VST头显设计提供了重要依据,相关论文已发表于《IEEE VR 2023》。

◐ MEMS手势识别Doublepoint推出免费手势交互工具包

手势技术公司Doublepoint Technologies宣布启动”Doublepoint Labs”开发者计划,为符合条件的开发团队免费提供基于MEMS传感器的手势识别工具包。该技术通过腕带或戒指内置的惯性测量单元实现点击、捏合等微手势识别,无需摄像头支持,具有低延迟、低功耗特性。目前其算法已支持15万用户通过智能手表进行AR/VR设备控制。该项目旨在推动更自然的手势交互在AR领域的应用,开发者可通过官网申请参与。

◐ Niantic Spatial与Snap合作,共同开发AR眼镜AI地图系统

地理空间计算公司Niantic Spatial宣布与Snap达成多年战略合作协议,双方将共同开发面向AR眼镜的AI驱动全球地图系统。根据协议,Snap将投资Niantic Spatial并将其视觉定位系统(VPS)整合至Snapchat平台,该合作预计将赋能40万AR开发者为数百万地点创建数字内容,同时让9亿Snapchat用户能发现相关AR滤镜并参与地图建设。Niantic CEO约翰·汉克表示,此次合作将加速构建连接物理与数字世界的空间智能基础设施。此外,Niantic还宣布与新加坡旅游局合作开发滨海湾花园多人AR体验,并推出包含技术支持和联合营销的新开发者计划,首批合作伙伴包括Sugar Creative等多家AR内容开发商。

◐ Vision Pro将支持PSVR 2控制器、罗技触控笔

苹果在visionOS 26中新增对索尼PSVR 2控制器和罗技触控笔的支持,开发者可为应用设置”必需”或”可选”控制器选项。系统提供两种追踪模式:预测模式(低延迟,适合动作类游戏)和连续模式(高精度,适合创作应用)。这一改变可能吸引更多传统VR游戏内容登陆Vision Pro平台,但苹果尚未公布具体延迟数据。开发者可通过官方视频《探索visionOS上的空间配件输入》获取技术细节。

◐ 中传、三星、北航团队提出VarGes框架,实现语音驱动多样化3D姿态生成

中国传媒大学、三星研究院与北京航空航天大学联合开发了VarGes框架,通过融合视觉样式与音频特征解决语音驱动3D姿态生成多样性不足的问题。该框架包含三个核心模块:VEFE从参考视频提取运动特征(节奏/幅度等),VCSE对多源样式编码进行鲁棒处理,VDGP通过交叉注意力机制整合音频MFCC特征与样式编码,驱动自回归模型生成自然且多样的头部、手部及身体动作。实验表明,相比现有方法,VarGes在BEAT等基准数据集上显著提升了生成姿态的多样性与自然度,同时保持个性化运动特征。当前局限在于多人场景适配和语义深度理解,未来研究将扩展应用场景并优化多样性与自然度的平衡。相关成果已发表于论文《VarGes: Improving Variation in Co-Speech 3D Gesture Generation via StyleCLIPS》。

◐ PICO视频6月上新,推出自然探索系列VR内容

PICO视频公布6月13日至15日自然主题VR内容上新计划,包含三部沉浸式作品:

  • 《隐秘森林》(6.13):呈现原始森林生态系统,通过3D音画还原苔藓岩壁、晨雾光斑等细节,展现4500万像素级植被建模

  • 《我们的太阳系:木卫二》(6.14):NASA科学可视化团队合作项目,基于朱诺号探测数据重建冰下海洋模型,含独家深海热泉模拟片段

  • 《翡翠秘境》(6.15):采用8K 3D 360°拍摄技术,记录皮划艇穿越森林溪流全过程,支持空间音频定位鸟类声源

用户可通过PICO VR助手APP或一体机视频专区预约,上新后保留永久点播权限。该系列首次尝试”科学纪录片+自然ASMR”跨界制作,平均时长35分钟,适配PICO 4及以上设备眼球追踪功能。

◐ 法国CANAL+采用Vision Pro技术制作MotoGP沉浸式纪录片

法国电视台CANAL+宣布正在使用Apple Vision Pro的沉浸式视频技术制作一部关于世界摩托车锦标赛MotoGP的纪录片。该片将采用Blackmagic URSA Cine Immersive摄影机拍摄,以8K分辨率、3D视频和180度视角呈现法国赛车手约翰·扎克及其车队在法国大奖赛的历史性胜利。纪录片计划于今年9月首播,法国观众可通过CANAL+应用在Apple Vision Pro上观看,国际观众则通过MotoGP平台免费获取。这部作品将充分利用空间音频等先进技术,旨在为观众带来突破性的体育赛事观看体验。

]]> 斯坦福、谷歌研究证实几何感知透视技术可显著降低VR晕动症 https://news.nweon.com/130307 Thu, 12 Jun 2025 00:52:09 +0000 https://news.nweon.com/130307 几何感知透视系统可以通过精确的深度感知来减轻晕动症]]> 查看引用/信息源请点击:映维网Nweon

几何感知透视系统可以通过精确的深度感知来减轻晕动症

映维网Nweon 2025年06月12日)传统的VR头显限制用户对虚拟世界的感知,将他们与现实世界隔离开来。视频透视(VST)头显则通过面向世界的摄像头来创建增强现实体验,以帮助人们感知现实世界。然而,直接显示摄像头画面会导致视觉不适和晕动症,这是由于对尺度的感知不准确和运动视差的夸大。

在一项研究中,斯坦福大学和谷歌团队展示了几何感知透视系统将如何通过精确的深度感知来减轻晕动症。研究人员首先提出了一种基准测试和比较透视算法的方法。另外,他们设计了一个协议来定量测量用户在VST头显中经历的晕动症。

使用所述协议,他们进行了用户研究,以比较直接透视和几何感知透视系统。研究人员指出,这是第一个揭示几何感知透视显著减少恶心、定向障碍和晕动症总分的研究。

VR头显利用高分辨率近眼显示器和多感官输入系统,令用户完全沉浸在虚拟环境中。高度的沉浸感将用户与他们的物理环境隔离开来。为了实现真实世界和虚拟世界之间的无缝集成,增强现实头显将数字内容覆盖到用户周围重新投影的物理世界。

因此,诸如Apple Vision Pro1和Meta Quest 3等视频透视(VST)头显越来越受欢迎。VST头显利用摄像头捕获的图像,为用户提供在AR和VR模式之间转换的能力,在完整的现实-虚拟连续体中提供身临其境的体验。

与VST头显并行,诸如微软HoloLens这样的光学透明(OST)系统同样开发出来。相关系统使用户能够通过可变透明度的面板看到真实世界,而面板同时可以显示虚拟内容。随着VST头戴式显示器的普及,一系列的增强现实应用已经出现,包括教育、交互式现实世界游戏,特别是生产力任务,如打字、参加会议、媒体消费,以及在室内场景中与物理世界交互。

随着空间计算设备的应用越来越多,有必要对VST技术带来的用户不适和相关晕动症进行研究。

尽管人们在过去的几十年里对VR晕动症进行了广泛的研究,但致力于增强AR设备使用的舒适性和安全性的研究有限。来自VR研究的见解是有益的,但VST的独特性质,即用户可以看到物理世界并与之交互,这表明需要专门的研究来指导VST头戴式显示器的设计,并优先考虑用户的舒适度。

斯坦福大学和谷歌团队的这项研究的目标之一是定量测量用户对透视系统的不适,并为减轻用户体验的晕动症提供见解。

在VST头显中,由于硬件和物理的限制,摄像头通常位于头显的外表面,远离用户的眼睛位置。直接透视,即将原始摄像头馈送到显示器,会放大距离,从而放大物体的运动。根据感觉冲突理论,视觉和惯性信号之间的不匹配可能会导致不适。

为了减轻这种不匹配,过去的研究侧重于利用深度信息将摄像头图像重新投影到眼睛视图中。

团队引入了一个术语“几何感知透视(Geometry Aware Passthrough/GAP)来描述基于深度的重投影算法。以前的研究假设,与直接透视相比,GAP减少了不适,但据研究人员所知,没有实证研究直接调查了这一假设。

另外,深度不连续可能导致GAP算法中的翘曲伪影,这可能进一步导致用户体验到的整体晕动症。为了解决所述问题,团队提出了技术指标,以估计在VST显示器感知到的几何不准确性,以及可能改变物体形状的翘曲伪影。

团队首先描述了直接和几何感知透视系统之间的技术差异,并提出了控制增强几何精度和减轻感知翘曲伪影之间权衡的指标。他们演示了如何使用相关指标来揭示几何估计对用户感知的几何形状的影响,并量化VST图像中引入的扭曲。

然后,团队介绍了一个专注于关键VST用例的协议,以全面评估VST头显引起的不适和晕动症。使用所述协议,他们进行了用户研究,以比较直接透视和几何感知透视系统。据研究人员所知,这是第一个揭示几何感知透视显著减少恶心、定向障碍和晕动症总分的研究。

研究包括VST中的三个活动:

  • 在物理键盘上打字

  • 绕过障碍物导航

  • 近场物体交互

通过所提出的研究,研究人员首先表明,VST系统在执行相同的任务时,会引起数种正常情况下不会经历的特定症状。他们进一步证明,与直接透视相比,几何感知穿越显著减少了恶心、定向障碍和晕动症的总分。通过将调查置于用户舒适度的背景下,团队强调了GAP在增强VST头戴式显示器的整体用户体验方面的实际意义。

相关论文Geometry Aware Passthrough Mitigates Cybersickness

在这项研究中,团队研究了重投影算法对VST头戴式显示器用户不适和晕动症的影响。他们首先提出了度量来评估几何正确性和由几何感知重投影产生的翘曲伪影,并展示了相关指标如何允许不同的通过算法之间的比较,重点是感知场景几何形状和对象形状。

他们提出了一项综合方案,旨在通过关键用例评估VST头戴式显示器视觉引起的不适和晕屏。研究结果表明,与直接透视相比,GAP显著减少了恶心、定向障碍、晕动症总分以及主观不适评分。

值得注意的是,研究结果揭示了VST系统特有的特定症状。眼睛疲劳是导致VST晕动症的主要因素。这表明VST系统中的晕动症是一种复杂的现象,不同于VR晕动症。尽管观察到的晕动症程度一般为低至中度,但相关症状会影响用户的接受度和整体体验。从用户收集的反馈揭示了进一步研究和改进VST头显舒适度的新途径。

]]>
中传、三星、北航团队提出VarGes框架,实现语音驱动多样化3D姿态生成 https://news.nweon.com/130305 Thu, 12 Jun 2025 00:52:08 +0000 https://news.nweon.com/130305 从音频中生成富有表现力和多样性的人类姿态]]> 查看引用/信息源请点击:映维网Nweon

从音频中生成富有表现力和多样性的人类姿态

映维网Nweon 2025年06月12日)从音频中生成富有表现力和多样性的人类姿态在VR等领域至关重要。尽管现有的方法已经取得了显著的性能,但由于数据集的多样性和音频输入的信息量有限,它们经常表现出局限性。

为了应对所述挑战,中国传媒大学,三星和北京航空航天大学团队提出了VarGes。这个variation-driven框架旨在通过整合视觉样式线索来增强语音姿态生成,同时尽量保持自然。

所述方法从Variation-Compensation Style Encoder(VEFE)模块开始,无缝地将样式参考视频数据整合到3D人体姿势估计网络中以提取StyleCLIPS,从而丰富输入的样式信息。

随后,采用Variation-Compensation Style Encoder(VCSE)来对不同的StyleCLIPS表示进行鲁棒编码,并有效地管理样式变化。最后,Variation-Driven Gesture Predictor (VDGP)模块通过交叉注意将MFCC音频特征与StyleCLIPS编码融合,将融合的数据注入交叉条件自回归模型中,以基于音频输入和样式线索调制3D人体姿态生成。

这一解决方案的有效性在基准数据集得到了验证,在姿态多样性和自然性方面优于现有方法。

头部、手部和身体手势是人类交际的重要组成,在增强语言表达、传递情感和态度、促进对话协调等方面发挥着关键作用。随着虚拟化身在教育、娱乐和医疗等不同领域的使用越来越多,基于语音生成自然且情境合适的姿态已成为一项重大的研究挑战。

这一挑战涉及多个学科,包括计算机视觉、自然语言处理和人机交互等。与语音同步生成头部、手部和身体姿态的任务大致可分为三种主要方法:基于规则的方法,基于统计模型的技术,以及基于学习的方法。

基于学习的方法已经明显成为这一领域的前沿,在产生既流畅又自然的姿态方面表现出非凡的熟练程度,可以捕获到人类表情的复杂动态。相关方法通过有效地将语音与手势的细微差别结合起来,树立了非常高的标准。然而,实现广泛多样的3D人体姿态依然是一个重大挑战。

尽管近来业界取得了进步,但相关方法经常受到限于特定人物的数据集的限制,从而限制了它们可以生成的姿态样式的广度,并导致了固定模式的学习,阻碍了在不同语音输入中的可变性。

为了解决这一限制,中国传媒大学,三星和北京航空航天大学团队提出了VarGes,一种从语音片段中生成各种3D人类姿态的方法。

团队旨在通过结合视觉和音频信息来增强3D姿态生成的多样性和自然性。通过整合这两种方式,研究人员希望以一种反映人们如何自然地使用视觉和声音来解释姿态的方式来实现人类表现力的丰富性。

具体来说,在VarGes中,视觉信息由样式参考视频表示,并编码为样式代码来指导生成过程。特别是,团队认为样式是一种稳定和个性化的特征,它通过影响动作的整体特征(如振幅、节奏和力量)来指导生成,而不是直接决定具体的动作路径。

在这种样式指导下,即使生成的动作与样式参考视频不同,都可以在整体特征上保持一致,从而实现自然多样的3D姿态生成。例如,正如指挥使用音乐家肢体语言的视觉线索和乐器的听觉线索来指导管弦乐队一样,团队提出的方法寻求利用视觉和音频数据的互补优势。

图1说明了所提出方法的核心思想,在给定任意音频剪辑的情况下,所提出方法可以生成自然、多样和逼真的姿态,展示了克服现有限制的潜力。

VarGes是一个复杂的框架,包括三个关键模块:VEFE,VCSE和VDGP。VEFE模块旨在通过无缝集成从样式参考视频中提取的StyleCLIPS来丰富语音衍生功能。这种整合捕获了手势节奏和幅度等信息,从而增加了输入的样式多样性。

在此之后,VCSE采用了一个基于transformer的编码器,以使StyleCLIPS的鲁棒编码成为深度学习表示,从而扩大了它们对姿态生成的影响。最后,VDGP模块通过交叉注意和交叉条件自回归模型巧妙地结合了样式代码和MFCC音频特征,促进了多样化和自然3D手势的生成。

实验结果证明了所述方法的显著有效性,在姿态多样性和自然度方面都明显优于现有方法。

相关论文VarGes: Improving Variation in Co-Speech 3D Gesture Generation via StyleCLIPS

总的来说,团队介绍了一种基于音频的三维人体姿态生成框架VarGes,其重点是增强姿态的变化。VarGes的核心集成了三个协同模块:VEFE将样式参考视频集成到3D姿态估计器中以提取StyleCLIPS,捕获整体运动特征,如幅度,节奏和强度,从而丰富样式细微差别的输入。

VCSE对多种样式表示进行鲁棒编码,而VDGP通过交叉注意集成了MFCC音频特征和样式编码,以调制交叉条件自回归模型,生成与音频输入一致的多种自然3D姿态。

在基准数据集上的大量实验验证了所提出方法在保持自然度的同时显著增强姿态变化的优越性。

当然,尽管取得了可喜的成果,但研究面临着一定的局限性。首先,目前的方法尚未完全优化多人场景,需要进一步的探索和扩展。其次,尽管已经成功地整合了音频特征和样式信息来增强姿态生成的多样性,但在多样性和自然度之间的平衡方面依然有很大的优化空间。未来的研究将侧重于将应用扩展到多人场景,引入更深层次的语义理解,并进一步提高生成姿态的自然度和多样性。

]]>
售价18万人民币,惠普推出谷歌光场通话Project Beam全息会议系统HP Dimension https://news.nweon.com/130303 Thu, 12 Jun 2025 00:52:07 +0000 https://news.nweon.com/130303 基于谷歌光场通话系统Project Beam的HP Dimension]]> 查看引用/信息源请点击:映维网

基于谷歌光场通话系统Project Beam的HP Dimension

映维网Nweon 2025年06月12日)惠普日前正式发布了基于谷歌光场通话系统Project Beam的HP Dimension,售价24999美元,约合人民币18万元。这款设备搭载65英寸的光场显示屏,配有6个高速摄像头,并旨在为你实现面对面的全息通话。

谷歌在5月表示,将允许第三方制造商打造光场通话系统Project Beam的产品,首个合作伙伴是惠普。

全新发布的HP Dimension面向企业市场,标价24999美元(约合人民币18万元),但这不包括视频通话所需的软件,而客户需要单独购买Beam许可证以访问Zoom或Google Meet(惠普和谷歌尚未透露许可证的价格)。

惠普表示,HP Dimension是一款基于人工智能的逼真3D视频通信解决方案,通过将突破性的3D成像、自然的眼神交流、空间音频和自适应照明结合为小型会议空间的优雅解决方案,从而改变未来的工作场所通信。

这家公司指出,与传统视频通话相比,相关实验已经显示出了可衡量的影响。使用这一解决方案进行会议的参与者报告称:

  • 记忆力提高了28%

  • 多出39%的非语言行为

  • 对会议伙伴的关注至少增加14%

相关发现已经转化为更快的意见一致性、更有意义的观点交换和更好的业务结果。HP Dimension与Google Beam将提供原生Zoom或Google Meet体验,并支持三种功能:3D沉浸式一对一通信,2D传统小组会议,以及与基于云的视频服务。

惠普表示:“我们相信,有意义的合作是建立在真实的人际关系之上,这就是为什么我们与谷歌合作,将HP Dimension和Google Beam从实验室带到企业市场。HP Dimension和Google Beam弥合了虚拟世界和现实世界之间的差距,创造了逼真的虚拟通信体验,并令我们更紧密地联系在一起。”

]]>
法国CANAL+采用Vision Pro技术制作MotoGP沉浸式纪录片 https://news.nweon.com/130301 Thu, 12 Jun 2025 00:52:06 +0000 https://news.nweon.com/130301 世界摩托车锦标赛MotoGP]]> 查看引用/信息源请点击:9to5mac

世界摩托车锦标赛MotoGP

映维网Nweon 2025年06月12日)法国著名电视台CANAL+日前宣布正在制作基于苹果沉浸式视频格式的纪录片,主题是世界摩托车锦标赛MotoGP,采用Blackmagic为Apple Vision Pro打造的空间视频摄影机URSA Cine Immersive。

世界摩托车锦标赛MotoGP创立于1949年,是摩托车公路赛领域的重要赛事。‌‌赛事车辆采用专为比赛而特制的摩托车,追求速度和观赏性。另外,由于参赛车辆多,超车场面多,危险性大,排名变化快,世界摩托车锦标赛十分精彩刺激。

据介绍,CANAL+制作的相关纪录片将于今年9月首播,并讲述世界冠军赛车手约翰·扎克(Johann Zarco)及其车队在法国赛车大奖赛取得历史性胜利的故事。

这个纪录片将充分利用Apple Vision Pro的8K、3D视频捕获、180度视角和空间音频功能,并旨在创造前所未有的体育体验。

届时,法国观众将能够通过Apple Vision Pro的CANAL+应用程序访问这部纪录片,而法国以外的国际受众则可以通过MotoGP免费访问。更多细节将在后续公布。

]]>
MEMS手势识别Doublepoint推出免费手势交互工具包 https://news.nweon.com/130299 Thu, 12 Jun 2025 00:52:04 +0000 https://news.nweon.com/130299 为符合条件的团队提供免费的Doublepoint工具包]]> 查看引用/信息源请点击:auganix

为符合条件的团队提供免费的Doublepoint工具包

映维网Nweon 2025年06月12日)手势技术提供商Doublepoint Technologies日前推出了一个全新的开发者项目Doublepoint Labs,为符合条件的团队提供免费的Doublepoint工具包,以帮助构建基于手势的AR体验。

‌ Doublepoint手势识别技术‌是一种基于MEMS传感器的解决方案,主要通过惯性测量单元来检测和识别手势,如点击、双击、捏合、滚动和滑动等‌。它无需摄像头,而是通过内置于腕带或戒指中的传感器来精准捕获微动作,并提供低延迟、低功耗的输入体验‌。

利用Doublepoint Technologies开发的核心算法,你的腕带设备可以变成基于手腕的鼠标,这样用户就能够通过各种微手势来与AR/VR设备进行交互。据悉,迄今为止已有超过15万用户通过Doublepoint的软件在WearOS和WatchOS设备进行手势控制。

Doulepoint表示:“随着增强现实技术的成熟,越来越多的公司正在寻求更广泛的用例,将增强现实技术带入主流。在这一进步中,Doublepoint提供了缺失的一层:手势输入,从而实现了更自然和更直观的用户控制。”

对于Doublepoint Labs,这个开发者项目旨在为符合条件的团队提供免费的Doublepoint工具包,以帮助构建基于手势的AR体验。更多信息请访问公司官网

]]>
三星与谷歌合作MR头显"无限"或于7月Unpacked大会发布 https://news.nweon.com/130297 Thu, 12 Jun 2025 00:52:03 +0000 https://news.nweon.com/130297 “无限”有望在7月举行的Unpacked 2025大会正式推出]]> 查看引用/信息源请点击:映维网Nweon

“无限”有望在7月举行的Unpacked 2025大会正式推出

映维网Nweon 2025年06月12日)早前韩国媒体Business Post曾报道称,三星代号为“无限”的MR头显可能会在今年三季度发售。现在著名三星情报人员PandaFlash指出,三星与谷歌合作研发的MR头显“无限”将于7月举行的Unpacked 2025大会正式推出。

韩国媒体The ELEC早前曾指出,”无限“将采用索尼的硅基OLED显示屏,分辨率3800 PPI,1.3英寸。另外,三星已经开始生产相关的零件,预计最高发货10万台。作为对比,Apple Vision Pro的索尼显示屏规格为1.42英寸,分辨率3391 PPI。

另一家韩国媒体Business Post则补充道,所述设备最快将于今年三季度发售,而且价格接近于Apple Vision Pro。除了显示屏规格要优于Apple Vision Pro之外,报道进一步指出”无限“的重量要优于苹果设备。

现在根据曾多次爆出正确三星设备情报的PandaFlash,三星与谷歌合作研发的MR头显“无限”将于7月举行的Unpacked 2025大会正式推出,但没有给出进一步的信息。需要注意的是,早前有报道称Unpacked 2025的举办时间从7月4日推迟到7月中旬,但三星暂时未确认。

]]>
Niantic Spatial与Snap合作,共同开发AR眼镜AI地图系统 https://news.nweon.com/130295 Thu, 12 Jun 2025 00:46:04 +0000 https://news.nweon.com/130295 Snap同时会投资Niantic Spatial,但暂时不确定具体的财务条款]]> 查看引用/信息源请点击:auganix

Snap同时会投资Niantic Spatial,但暂时不确定具体的财务条款

映维网Nweon 2025年06月12日)专注于从事地理空间计算的Niantic Spatial日前宣布与Snap达成一项多年协议,共同为AR眼镜构建基于人工智能的全球地图。Snap同时会投资Niantic Spatial,但暂时不确定具体的财务条款。

据悉,Snap将把Niantic Spatial的扫描技术和视觉定位系统(VPS)引入Snap生态系统。据Niantic Spatial称,预计这将支持40万AR开发者创建关于数百万个地点的数字体验,同时允许9亿Snapchat用户发现相关的Lens,并为扩展地图做出贡献。

Niantic Spatial首席执行官约翰·汉克(John Hanke)表示:“我们在Niantic Spatial的目标是建立空间智能,帮助人类和机器更好地理解、导航和参与物理世界。两家公司都在投资空间计算,并将其作为从AR眼镜到物理世界人工智能代理的下一个技术时代的基础,而这种伙伴关系加速了这一共同愿景。”

Snap首席执行埃文·斯皮格尔则指出:“我们相信数字体验可以更自然地融入现实世界,从而实现更以人为本的计算体验。对于与Niantic Spatial合作,我们非常高兴能够帮助开发者创造出比以往更直观、更身临其境、更与世界相连的体验。”

除了与Snap合作外,Niantic Spatial同时宣布与新加坡旅游局合作,在滨海湾花园创建沉浸式AR体验,从而允许游客在共享的多人环境中与植物内容互动。

值得一提的是,Niantic Spatial推出了一个全新的开发者计划,包括提供抢先访问平台的机会,以及专门的开发支持和联合营销机会。最初的参与者包括Sugar Creative、Wonderment和Trigger XR等。更多信息请访问这个页面

]]>
PICO视频6月上新,推出自然探索系列VR内容 https://news.nweon.com/130293 Thu, 12 Jun 2025 00:46:02 +0000 https://news.nweon.com/130293 PICO视频上新]]> 查看引用/信息源请点击:映维网Nweon

PICO视频上新

映维网Nweon 2025年06月12日)PICO视频日前公布了上新日历。团队写道:“在宇宙的无垠星河里,在地球的茂密山林中,亦或是在大地的神秘深处,都有着 “隐秘呼吸” 的存在。那是木卫二冰层下海洋的律动,虽远在天边,却似有生命的脉搏在跳动;是隐秘森林中动植物们交织的生机,每一丝空气里都满是自然的低语;是翡翠秘境中大地的深沉吐纳,矿石在黑暗中似乎也在诉说着岁月。本期让我们借这三条视频,奔赴这场跨越星际与大地的探秘,聆听那些隐秘的呼吸。”

【观影预约】

进入《PICO VR》助手APP首页>>视频专区,下滑至「即将上映」板块,找到对应海报,即可进行内容预约!您还可以通过PICO视频一体机,进入PICO视频推荐页面,下滑至精彩预约专区,找到对应海报,点击即可预约。

【观影路径】

上新期:打开一体机,在PICO推荐页面即可看到推荐影片,点击即可观看
上新后:如未在首页看到推荐,也可通过PICO视频搜索对应影片进行观看

【本周上新日历】

6月13日 隐秘森林

在远离尘嚣的地界,藏着一片不被喧嚣打扰的隐秘森林。这里的古树虬枝盘曲,苔藓爬满青岩,晨雾中弥漫着松针与腐殖质的清冽气息。踏入这片秘境,脚下落叶发出沙沙轻响,抬头可见阳光透过叶隙织就的光斑,每一口呼吸都裹挟着负氧离子的清甜,让人在藤蔓缠绕的绿意中,触摸到地球最初的脉动与生机。远离城市的隐秘森林保留着原始的生态环境和生物多样性,是许多珍稀濒危物种的栖息地。在这里,你可以感受到大自然的神秘和美丽。

6月14日 我们的太阳系:木卫二

在浩瀚宇宙中,木星的卫星木卫二,宛如一颗神秘宝石。它比月球略小,表面被晶莹冰层覆盖,极为光滑,陨石坑稀少,纵横交错的红色条纹,像大地上蜿蜒的河流。冰层之下,隐藏着深达百公里的咸水海洋,含水量约为地球海洋总量的两倍。由于木星潮汐力的作用,木卫二内部可能存在热液喷口,为生命诞生提供能量与物质基础。因此,它被视为太阳系中最有希望存在地外生命的星球之一 ,吸引着人类不断探索。

6月15日 翡翠秘境:暮色浸染的森林呼吸

乘皮划艇划开粼粼波光,QooCam EGO以3D镜头捕捉此刻的惬意。两岸绿树成荫,枝叶在水面投下斑驳光影,桨叶轻拨水面,荡开圈圈涟漪向远处扩散。沉浸式的拍摄视角,将碧水、绿树、蓝天尽收画面,仿佛让人身临其境。在这林溪环绕的秘境中,每一次划行都是与自然的对话,每一帧影像都是自然与科技的诗意交融。QooCam EGO用独特的3D视角,为这场林溪之约定格下难忘的美好瞬间,让自然的灵动与科技的精妙在此刻完美邂逅。

]]>
Vision Pro将支持PSVR 2控制器、罗技触控笔 https://news.nweon.com/130291 Wed, 11 Jun 2025 01:18:02 +0000 https://news.nweon.com/130291 “需要”和“可选”]]> 查看引用/信息源请点击:roadtovr

“需要”和“可选”

映维网Nweon 2025年06月11日)Apple Vision Pro最大的新闻之一包括支持索尼PSVR 2控制器和罗技触控笔。现在根据苹果的介绍,开发者将能够提供“需要”控制器的应用程序,以及“可选”的应用程序。与最初只支持裸手交互相比,这是一个令人惊讶的转变。

在视频《探索 visionOS 上的空间配件输入(提供字幕选项)中,苹果详细介绍了VisionOS 26即将支持的空间配件。

我们了解到的一件有趣事情是,开发者将能够发布带有“可选”或“需要”控制器的应用程序。

这当然打开了Apple Vision Pro内容的大门。由于大多数现有的VR游戏(如Quest和PC VR等平台)都是专门为控制器打造的,这可能意味着一大批专用内容将会登陆苹果的空间设备。

在为控制器构建应用程序时,开发者可以在两种不同的追踪模式之间进行选择:预测和连续。

预测模式将提供最低的表观延迟,而这种模式可能最适合有很多玩家动作的游戏。

连续模式将提供最高的精度,不估计未来的位置。当用户突然改变运动控制器的方向时,这将防止“超调”。然而,这将以更高的表观延迟为代价。这种模式可能最适合需要最佳精度的应用,比如美术和生产力。

尽管谈到了这两种追踪模式,但苹果没有分享任何关于预期延迟的具体信息。

更多信息请访问视频《探索 visionOS 上的空间配件输入(提供字幕选项)

]]>
visionOS 26重点升级小组件系统,支持环境融合与动态交互 https://news.nweon.com/130288 Wed, 11 Jun 2025 00:58:03 +0000 https://news.nweon.com/130288 系统支持为其他苹果平台(如iOS和ipad)构建的现有小组件,这意味着将有大量的小组件可供Vision Pro用户使用]]> 查看引用/信息源请点击:roadtovr

系统支持为其他苹果平台(如iOS和ipad)构建的现有小组件,这意味着将有大量的小组件可供Vision Pro用户使用

映维网Nweon 2025年06月11日)对于visioOS 26,最主要的亮点之一是小组件系统。实际上,苹果投入了大量的笔墨来介绍这项功能。在相关讲演中,团队着重探究了visionOS小组件系统的工作原理和定制选项等。

典型的Apple Vision Pro窗口会在用户放置的任何地方漂浮,而小组件不同,它可以放置在靠墙或平面,即便头显重新启动,窗口都会一直留在原来的位置,这使得VisionOS 26的小组件就像物理环境的持久组成一样。

苹果解释道,系统支持为其他苹果平台(如iOS和ipad)构建的现有小组件,这意味着将有大量的小组件可供Apple Vision Pro用户使用。但苹果扩展了WidgetKit平台,为Apple Vision Pro提供了新的选项,包括新的尺寸和宽高比可。

另外,开发者可以选择“纸张”和“玻璃”叠加层,而它们将定义小组件如何响应用户空间的照明。

对于带有静态信息的小组件,如照片或封面,苹果建议使用纸张样式,这样它们会随着房间的灯光变暗,使它们看起来更像实际房间的组成。

对于显示动态信息的小组件,苹果则建议采用玻璃样式,并指出玻璃样式的信息将保持发光状态,以确保始终易于看到。

另外,为visionOS 26制作的小组件可以具有距离感知功能,允许小组件根据用户的远近在状态之间进行切换。这允许开发者能够从房间的另一端显示简化的信息(如天气状况),然后在用户靠近时显示进一步的细节(如下周的天气预报)。

在全新的第一方苹果小组件中,有一张专辑海报。而它可以在墙壁显示专辑艺术。当用户点击它时,就会播放专辑。另一个是“照片窗口”,你可以用全景照片创建一个虚拟窗口。然而,照片目前为平面,不具有空间深度。

显然,苹果真的希望小组件成为用户实际空间的组成。所以,它们必须靠墙或平面放置,而且它们会遭到其他虚拟内容和现实世界环境(如家具或墙壁)的遮挡。

尽管开发者现在有了在Apple Vision Pro上制作小组件的新工具,但用户同样拥有一系列自定义选项。

小组件可以调整为其原始大小的75%到125%。它们可以像相框一样放在墙壁,或者可以“凹进去”,稍微陷进墙里,令它们感觉自己是墙的组成。用户同时可以选择多种颜色,包括浅色和深色。

另外,在靠墙排列小组件时,附近的小组件将自动折叠成网格排列,以便于分组。小组件可以是交互式,例如,允许用户通过使用“看-捏”或实际触碰小组件来勾选待办事项列表项。

更多信息请访问苹果官方视频《针对 visionOS 设计小组件》(提供字幕选项)

]]>
XR日报:高通发布AR1+ Gen 1,Xcode代码泄露平价版Vision Pro https://news.nweon.com/130286 Wed, 11 Jun 2025 00:58:02 +0000 https://news.nweon.com/130286 本日报由AI生成,可能存在信息错误,具体可查看原文。]]>

本日报由AI生成,可能存在信息错误,具体可查看原文。

◐ 高通发布全新骁龙AR1+ Gen 1处理器,支持设备端AI

高通推出新一代智能眼镜专用处理器骁龙AR1+ Gen 1,相比前代AR1 Gen 1芯片体积缩小28%,功耗降低7%,并首次实现完全设备端AI运算能力。该芯片支持10亿参数规模的AI模型(如Llama 1B),可在不依赖云端的情况下处理计算机视觉、语音交互等任务,同时通过双目显示和图像稳定技术提升视觉体验。高通特别强调该芯片在隐私保护(本地数据处理)和使用成本(减少云端依赖)方面的优势,并以Meta Ray-Ban眼镜为例展示技术应用前景。该芯片的推出标志着智能眼镜向更轻薄、更独立的方向发展。

◐ Xcode 26代码泄露平价版Apple Vision Pro信息,或采用降配显示屏

9to5mac通过对Xcode 26 Beta的代码分析发现,苹果内部将现有Vision Pro标记为“Apple Vision Pro 4K”,同时存在未标注分辨率的“Apple Vision Pro”型号引用,这进一步佐证了平价版头显的研发计划1。据此前供应链信息,现款Vision Pro成本中4K Micro-OLED屏幕占比达30%,平价版本可能采用像素密度更低(如1500PPI)的显示屏,并削减处理器性能或材质以降低成本8。目前代码未透露更多规格细节,但差异化命名表明苹果正通过分辨率划分产品线,为2026年可能发布的入门级MR设备铺路。

◐ Snap宣布2026年推出消费级AR眼镜Specs

Snap在AWE 2025大会上宣布将于2026年推出面向消费市场的AR眼镜“Specs”,该产品相比2024年发布的开发者版Spectacles(46°视场、45分钟续航)将实现更轻薄设计及更强性能,但未透露具体规格、价格或外观17。新设备将沿用Snap OS系统,并集成OpenAI与谷歌Gemini的多模态AI能力,支持实时3D对象生成和40多种语言的语音识别58。行业分析指出,Snap若如期发布,可能领先Meta(计划2027年推出AR眼镜)和苹果(预计不早于2028年),成为首家推出真正消费级AR眼镜的科技巨头17。

◐ visionOS 26重点升级小组件系统,支持环境融合与动态交互

visionOS 26重点升级了小组件系统,通过环境持久化设计和新型交互模式增强空间计算体验。该系统支持将小组件固定在墙面或平面,重启后仍保持原位,并具备环境遮挡效果。苹果扩展了WidgetKit平台,新增”纸张”(随环境光线变化)和”玻璃”(保持发光)两种材质样式,分别适用于静态内容和动态信息显示。开发者可创建具备距离感知功能的小组件,根据用户远近切换信息层级。用户可自定义大小(75%-125%)、颜色、凹陷深度及排列方式,交互支持”看-捏”手势或直接触碰。首批官方小组件包括可播放音乐的专辑海报和全景照片窗口,目前照片暂不支持空间深度。该功能兼容现有iOS/iPadOS小组件生态,详细开发指南可参考苹果官方视频《针对visionOS设计小组件》。

◐ 歌尔、poLight、OMNIVISION联合推出集成像素移位技术的AR光引擎原型

挪威光学技术公司poLight与歌尔光学科技、OMNIVISION合作开发了一款用于AR智能眼镜的LCoS光引擎投影仪原型。该原型整合了三家公司的核心技术:poLight的TWedge微振荡器像素移位技术(通过物理偏移像素实现分辨率翻倍)、歌尔提供的28度视场光机械光引擎,以及OMNIVISION的OP3011 VGA LCoS微显示器(640 * 640分辨率,120Hz刷新率)。这款尺寸仅7.5x7.5x17.0mm的原型机,通过像素移位技术显著提升了图像清晰度,为AR设备OEM厂商提供了新的显示解决方案。三方表示该合作拓展了AR波导微显示平台的选择,原型计划于2025年第三季度上市,目前仍在优化阶段。

◐ Lumus发布升级版Z-30 AR光学引擎,亮度效率提升至7000尼特/瓦

Lumus在AWE大会上展示了改进型Z-30 AR光学引擎,该产品基于Z-Lens波导架构,主要升级包括:

  • 采用更小型投影仪设计,在保持30度视场角的同时提升电源效率;

  • 亮度效率预计达7000尼特/瓦,满足户外显示需求;

  • 体积进一步缩小,可集成至普通眼镜框架;

  • 针对日常AR应用场景优化,支持社交、导航等基础功能。

公司同期展示了50度视场的Z-50光学引擎,CEO表示其技术路线已覆盖从轻量化到沉浸式的全场景需求,为消费级AR眼镜的普及奠定光学基础。

◐ Cellid发布两款新型AR波导显示器,亮度提升并搭载智能校正技术

日本光学技术公司Cellid推出R30-FL (C)塑料波导和C30-AG (C)玻璃波导两款新品,主要特性包括:

  • 性能提升:两款产品均实现1400 nit/lm亮度,塑料/玻璃版本分别重5.4g/9.3g,厚度1.9mm/1.0mm,视场角均为30度;

  • 技术创新:采用新型软件校正技术,通过实时测量显示特性(如色彩偏差)并动态修正,显著改善AR图像清晰度;

  • 未来规划:将开发自适应环境与用户的智能算法,并优化芯片级低功耗方案。

该公司表示,此次硬件与软件协同升级旨在推动消费级AR眼镜的普及。

◐ 苹果Vision Pro将支持高性能iPad游戏,但未透露具体细节

苹果在WWDC 2025期间宣布,Vision Pro将在年内支持“高性能iPad游戏”,但未公布具体游戏名单或技术细节。虽然Vision Pro理论上可通过空间巨幕模式运行大多数iPad应用,但此前3A游戏开发商普遍未适配,可能受限于设备性能(如内存不足)。随着visionOS 26的发布,苹果通过新增PSVR 2控制器支持、优化macOS Spatial Rendering流式传输功能,并放宽内容限制,试图提升游戏体验。但官方仍未明确是否有主流3A游戏入驻,或如何解决性能瓶颈问题12。

◐ Sandbox VR与Netflix合作推出《怪奇物语》主题多人VR体验

线下VR娱乐公司Sandbox VR宣布与Netflix再度合作,基于热门剧集《怪奇物语》开发多人VR体验《Stranger Things: Catalyst》。该体验将还原剧中标志性场景、超自然生物及角色能力,玩家可与好友共同对抗霍金斯小镇的超自然威胁。作为Sandbox VR与Netflix继《鱿鱼游戏》《月球叛军》后的第三次合作项目,该体验计划于2025年底在全球Sandbox VR门店上线,具体细节将于后续公布。

◐ 瑞典皇家理工学院研发语音控制XR机器人操作系统

瑞典皇家理工学院开发出一套基于大型语言模型(LLM)和扩展现实(XR)技术的机器人控制系统。该系统通过Meta Quest 3头显实现无控制器操作,用户可使用自然语音指令实时控制机器人。研究团队表示,该系统解决了传统机器人控制需要专业培训的问题,在工业、医疗等领域具有应用潜力,能提升操作安全性和易用性。目前该系统已完成初步功能验证,未来计划扩展多模态输入和自适应学习功能。

◐ 4D高斯+物理渲染实现可调光体三维视频,提升逼真视觉效果

上海科技大学联合NeuDim和DGene团队提出BEAM技术方案,该方案通过将4D高斯表示与基于物理的渲染相结合,解决了传统体三维视频固定照明限制的问题。该技术采用分阶段优化方法,先重建动态几何结构,再解耦材质属性,最终实现支持实时渲染和离线渲染的可调光4D视频,在用户测试中获得95.65%的偏好率。目前该技术已开发Unity插件支持实际应用,但存在存储需求较大的局限性。

]]> Sandbox VR与Netflix合作推出《怪奇物语》主题多人VR体验 https://news.nweon.com/130285 Wed, 11 Jun 2025 00:50:02 +0000 https://news.nweon.com/130285 以热门电视剧《怪奇物语》为基础打造多人虚拟现实体验。]]> 查看引用/信息源请点击:roadtovr

以热门电视剧《怪奇物语》为基础打造多人虚拟现实体验。

映维网Nweon 2025年06月11日)专注于线下VR娱乐的Sanbox VR日前宣布继续与Netflix合作,以热门电视剧《怪奇物语》为基础打造多人虚拟现实体验。

恰逢《怪奇物语》第五季,即将与我们见面的VR体验《Stranger Things: Catalyst》将允许你和朋友们一起面对困扰印第安纳州小镇霍金斯的超自然威胁,并将复刻一系列的标志性地点,独特的能力,以及来自颠倒世界的可怕生物。

与Sandbox VR的其他多人游戏体验一样,《Stranger Things: Catalyst》将由公司旗下工作室开发,而这实际上是继”鱿鱼游戏“和”月球叛军“之后与Netflix的第三次合作。

据悉,《Stranger Things: Catalyst》将于2025年底登陆Sanbox VR的全球门店,更多信息将在后续公布。

]]>
歌尔、poLight、OMNIVISION联合推出集成像素移位技术的AR光引擎原型 https://news.nweon.com/130283 Wed, 11 Jun 2025 00:48:02 +0000 https://news.nweon.com/130283 poLight,歌尔和OMNIVISION]]> 查看引用/信息源请点击:映维网Nweon

poLight,歌尔和OMNIVISION

映维网Nweon 2025年06月11日)挪威光学技术厂商poLight日前亮相了与歌尔和OMNIVISION合作研发,并用于AR智能眼镜的LCoS光引擎投影仪原型。这个原型包括poLight的专有像素移位技术,歌尔的28度视场光机械光引擎,以及OMNIVISION的OP3011(640*640) VGA LCoS微显示器。

作为说明,像素移位技术是一种通过物理偏移像素位置来提升显示分辨率的光学增强方法,主要利用了人眼视觉暂留效应,通过高速抖动来令相邻帧的像素点精确填充前帧像素间隙,从而实现分辨率翻倍。

对于poLight与歌尔和OMNIVISION合作的原型,它包括poLight的专有像素位移技术,歌尔的28度视场光机械光引擎,以及OMNIVISION的OP3011(640*640) VGA LCoS微显示器,尺寸7.5x7.5x17.0mm,120Hz。

poLight表示:“这个原型反映了我们在解决AR设备OEM设计挑战方面的持续进步。我们与歌尔光学科技和OMNIVISION的合作扩展了可用的AR波导微显示平台,为设计工程师提供了选择,并通过可调光学提供了显著的视觉用户体验改进。”

歌尔光学科技指出:“我们非常高兴与poLight和OMNIVISION合作,开发业界首款集成了TWedge微振荡器像素移位技术的LCoS光引擎投影机。我们期待通过我们的战略合作伙伴关系,为我们共同的智能眼镜OEM客户提供差异化的AR微显示光引擎产品。”

OMNIVISION则评价道:“我们非常高兴能与poLight和歌尔光学科技合作,推动AR显示技术的创新。通过将我们的OP3011 (640*640) LCoS微显示器与poLight的TWedge微振荡器像素移位技术集成在一起,我们能够在紧凑的面积内提供增强的图像清晰度和沉浸式视觉性能。我们期待着在未来的可穿戴设备扩展LCoS技术的应用。”

目前的原型依然在优化之中,但计划在2025年第三季度上市。

]]>
Lumus发布升级版Z-30 AR光学引擎,亮度效率提升至7000尼特/瓦 https://news.nweon.com/130281 Wed, 11 Jun 2025 00:40:03 +0000 https://news.nweon.com/130281 Z-30光学引擎的升级版]]> 查看引用/信息源请点击:映维网Nweon

Z-30光学引擎的升级版

映维网Nweon 2025年06月11日)反射(几何)波导技术开发商Lumus日前在AWE大会展示了用于AR眼镜的升级版Z-30光学引擎。

据介绍,在年初亮相的Z-30基于Z-Lens波导架构,可提供30度的视场。对于日前展示的升级版型号,尽管视场没变,但团队纳入了一个更小的投影仪,提高了电源效率,并增加了亮度。Lumus补充道,预计Z-30将在未来数个月内达到高达每瓦7000尼特的亮度效率,目标是实现户外AR显示。

目前,Z-30正在通过一系列的性能和设计优化而不断升级。Lumus的首席执行官阿里·格罗布曼(Ari Grobman)表示:“Z-30已经为大众市场的消费者眼镜做好了充分的准备。它足够紧凑,可以装进标准的眼镜框里,在白天功能强大,全天使用效率高。为了令AR成为日常生活的组成,硬件需要融入到熟悉的形状之中,同时提供非凡的性能。有了Z-30,我们做到了这一点。”

Z-30专为社交参与、导航、消息传递、可浏览通知等日常用例而开发,并以时尚、类眼镜外形提供基本的AR功能。

除了升级版的Z-30光学引擎之外,Lumus同时在AWE大会展示了50度视场的Z-50光学引擎,并介绍了在光学引擎性能、功率效率和小型化方面的最新进展。

格罗布曼补充道:“Lumus正在为AR眼镜时代奠定光学基础。从紧凑型光学引擎到下一代沉浸式宽视场,我们为每一种设计应用提供光学引擎,而我们才刚刚开始。随着对更强大、更可穿戴的AR系统的需求不断增长,我们的光学引擎和制造能力已经与未来的趋势保持一致。”

]]>
Cellid发布两款新型AR波导显示器,亮度提升并搭载智能校正技术 https://news.nweon.com/130279 Wed, 11 Jun 2025 00:34:03 +0000 https://news.nweon.com/130279 两款全新的波导产品]]> 查看引用/信息源请点击:映维网Nweon

两款全新的波导产品

映维网Nweon 2025年06月11日)专注于下一代AR眼镜开发显示器和空间识别引擎的Cellid日前发布了两款全新的波导产品,并表示每款产品的亮度都比以前的型号更高,同时采用了专有的软件校正技术来减少色彩不规则并提高AR图像质量。

新增的两款产品包括塑料波导R30-FL (C)和玻璃波导C30-AG (C)。

  • 塑料波导R30-FL (C)的对角线视场为30度,效率1400 nit/lm,重量5.4g,厚度则为1.9mm。

  • 玻璃波导C30-AG (C)的对角线视场为30度,骁龙1400 nit/lm,重量9.3g,厚度则为1.0mm。

对于所述新品,Cellid的目标是通过硬件和软件的进步来加速AR眼镜的普及。

除了规格方面的变化外,Cellid表示产品采用了全新的专有软件校正技术,能够解决AR图像投影中常见的颜色不规则和失真问题。相关的解决方案可以高度精确地测量显示特性(如颜色不规则和扭曲),并应用基于软件的实时校正。所以,用户看到的最终AR图像在清晰度和精度方面都有巨大的增益。

展望未来,Cellid计划通过以下方面进一步增强这项技术:

  • 开发了更高精度的检测能力

  • 智能校正算法,适应个人用户和不断变化的环境

  • 低功耗,通过芯片级实现实时校正

  • 自动切换和动态控制校正参数

团队评价道:“通过扩大Cellid的波导产品阵容,我们不仅发展了硬件,而且通过软件技术的集成建立了一个可以满足客户多样化需求的系统。我们将继续改进波导产品和这种软件校正技术的性能,从而帮助实现美观和均匀图像的AR眼镜。”

更多信息请访问公司官网

]]>
苹果Vision Pro将支持高性能iPad游戏,但未透露具体细节 https://news.nweon.com/130277 Wed, 11 Jun 2025 00:32:08 +0000 https://news.nweon.com/130277 Apple Vision Pro将于年内支持“高性能iPad游戏”]]> 查看引用/信息源请点击:映维网Nweon

Apple Vision Pro将于年内支持“高性能iPad游戏”

映维网Nweon 2025年06月11日)在WWDC大会期间,苹果表示Apple Vision Pro将于年内支持“高性能iPad游戏”。但遗憾的是,团队并未给出进一步的说明,包括游戏名称和技术细节等等。

就理论而言,Apple Vision Pro可以默认支持几乎所有的iPad应用(以空间巨幕形式),除非开发者选择退出。但实际情况就是这样,一系列的3A游戏开发商都没有选择加入。

尽管不确定具体的原因,但一个猜测是性能限制,比如说可用内存较低,而这意味着这款头显难以处理高性能的游戏。

随着visionOS 26的发布,苹果正在积极改善头显设备的游戏用例。除了支持索尼PSVR 2控制器,允许你利用Mac的强大功能将沉浸式内容直接渲染和流式传输到Vision Pro的macOS Spatial Rendering之外,团队同时提高了visionOS的内容限制,并表示设备已经可以支持“高性能iPad游戏”。

当然,这家公司没有给出进一步的说明,包括是否已经说服了3A游戏开发商,以及具体的游戏内容等等。

]]>
Xcode 26代码泄露平价版Apple Vision Pro信息,或采用降配显示屏 https://news.nweon.com/130275 Wed, 11 Jun 2025 00:32:06 +0000 https://news.nweon.com/130275 “Apple Vision Pro 4K”和“Apple Vision Pro”]]> 查看引用/信息源请点击:9to5mac

“Apple Vision Pro 4K”和“Apple Vision Pro”

映维网Nweon 2025年06月11日)根据9to5mac对Xcode 26 Beta的代码挖掘,团队发现了“Apple Vision Pro 4K”的引用。但需要注意的是,Xcode 26是在将目前的Apple Vision Pro称为“Apple Vision Pro 4K”,而“Apple Vision Pro 4K”同时存在的包括“Apple Vision Pro”。

综合先前情报,苹果应该是在准备一款平价版头显。

一直有消息称,苹果正在研发一款平价版头显。根据‌Omdia的报告,Apple Vision Pro所采用的两块4K Micro-OLED屏是成本最高的零件,占整体的约30%‌。所以对于平价款,最主要的不同点将集中在面板环节(另外包括处理器和材质)。根据2024年9月的一份报告,苹果似乎对每英寸1500像素的显示器进行了测试。

对于“Apple Vision Pro 4K”和“Apple Vision Pro”的引用。这实际上是指一款头显设备输出4K的事实。换句话说,“Apple Vision Pro 4K”是指当前发售的Apple Vision Pro,而“Apple Vision Pro”则是指一款输出远低于4K的头显设备。

不过,除了上述引用之外,Xcode 26 Beta的代码挖掘暂时没有发现进一步的信息。

]]>
高通发布全新骁龙AR1+ Gen 1处理器,支持设备端AI https://news.nweon.com/130273 Wed, 11 Jun 2025 00:32:05 +0000 https://news.nweon.com/130273 直接在设备端支持人工智能]]> 查看引用/信息源请点击:映维网Nweon

直接在设备端支持人工智能

映维网Nweon 2025年06月11日高通日前发布了用于智能眼镜的全新处理器:骁龙AR1+ Gen 1。尽管与之前的芯片相比只是略有升级,但这家公司表示它可以直接在设备端支持人工智能,无需智能手机或云端,用户只需戴上智能眼镜即可直接享受AI带来的便捷服务。

与Ray-Ban Meta智能眼镜搭载的骁龙AR1 Gen 1相比,全新的AR1+ Gen 1在面积方面要小28%,所以可以将眼镜支架高度降低20%。同时,在计算机视觉、语音唤醒、蓝牙播放和视频流等关键用例中,它已经大大降低了功耗,耗电量减少了7%,所以能够提高续航。另外,高通承诺通过支持双目显示、图像稳定和大型多帧引擎等技术实现“优质”图像质量。

尽管性能与之前的芯片相比只是略微升级,但最为关键的一点是它支持设备端AI,10亿个SLM参数使得它可以支持诸如Llama 1B等人工智能助手。

高通表示,终端侧AI具有诸多优势,首先是个性化,能够基于终端侧本地存储的详细个人信息,提供更加定制化的回复和推荐。另外,通过在本地处理任务,可以确保个性化和敏感数据及用户偏好信息保留在智能手机上。同时,相较于在云端运行服务,终端侧运行更为经济,因为持续的实时交互可能会带来更高的成本。

值得一提的是,高通同时大力宣传了Meta的Ray-Ban眼镜及Orion AR眼镜原型,并宣称这是智能眼镜技术的发展方向。然后这家公司补充道,像骁龙AR1+ Gen 1芯片这样的技术可以在不影响人工智能模型能力的情况下改善设备的形状参数。从字里行间可以看出,在不久的将来,这种芯片将出现在越来越轻薄的AI+AR眼镜身上。

]]>
Snap宣布2026年推出消费级AR眼镜Specs https://news.nweon.com/130271 Wed, 11 Jun 2025 00:02:03 +0000 https://news.nweon.com/130271 “更小更轻,但功能却更强大”]]> 查看引用/信息源请点击:roadtovr

“更小更轻,但功能却更强大”

映维网Nweon 2025年06月11日Snap日前宣布,正在研发下一代Spectacles AR眼镜:“Specs”,并预计将于2026年正式发布。不过,除了是首款向公开市场发售的设备,以及宣称“更小更轻,但功能却更强大”之外,这家公司并未透露进一步的信息。

Snap创始人兼首席执行官埃文·斯皮格尔在AWE 2025大会宣布将于明年推出一款升级版的AR眼镜,并表示与先前的Spectacles眼镜相比,Specs的要“更小更轻,但功能却更强大”。

不过,斯皮格尔没有透露太多的信息,包括价格,规格,具体发布和发售时间,甚至是谍照图等等。

作为参考,2024年推出的Spectacles主要通过立体波导显示器提供46度视场,以及每度37像素的双硅液晶(LCoS)微型投影仪。另外,作为一体机设备,它搭载双骁龙处理器,用于空间音频的立体声扬声器,六个用于语音识别的麦克风,以及两个高分辨率彩色摄像头和两个用于六自由度空间感知和手部追踪的红外计算机视觉摄像头。

目前尚不清楚下一个版本的规格变化,但我们当然希望电池续航时间可以超过前代的45分钟。

除了第一款向公开市场发售的AR眼镜之外,Snap同时宣布对Snap操作系统进行重大升级,关键的增强包括与OpenAI和谷歌Cloud的Gemini的新集成,允许开发者为Specs构建多模态AI驱动的Lens等等。

另外,据称全新的API扩展了空间和音频功能,包括可将AR内容锚定在3D空间中的 Depth Module API,以及支持40多种语言的Automated Speech Recognition API。据称,这家公司的Snap3D API可以在Lens中实现实时3D对象生成。

Snap表示,对于开发LBE体验的开发者,团队将推出一款管理应用,用于无缝启动Lens的引导模式,以及用于增强现实之旅的引导导航。即将推出的功能包括Niantic Spatial VPS集成和WebXR浏览器支持,支持共享的AI辅助世界地图,并扩展对WebXR内容的访问等等。

毫无疑问,随着Snap,苹果Meta,谷歌和三星等厂商的陆续进场,AR眼镜的竞争将在未来十年升温。总体的共识是,他们都希望在增强现实领域占有重要的份额,因为业界认为这种设备有望在未来取代智能手机,并成为占主导地位的计算范式。

]]>
瑞典皇家理工学院研发语音控制XR机器人操作系统 https://news.nweon.com/130269 Tue, 10 Jun 2025 23:56:05 +0000 https://news.nweon.com/130269 消除了对物理控制器的需求,提高了易用性,同时最大限度地减少了与直接机器人操作相关的潜在安全风险]]> 查看引用/信息源请点击:映维网Nweon

消除了对物理控制器的需求,提高了易用性,同时最大限度地减少了与直接机器人操作相关的潜在安全风险

映维网Nweon 2025年06月11日)机器人技术和XR技术的集成通过提高可用性、直观性和可访问性,为推进人机交互(HRI)提供了变革性的机会。在一项研究中,瑞典皇家理工学院团队介绍了一个无控制器,LLM驱动的声控XR操纵系统,这样用户就能够实时远程操作机器人。

通过利用自然语言处理(NLP)和XR技术,系统消除了对物理控制器的需求,提高了易用性,同时最大限度地减少了与直接机器人操作相关的潜在安全风险。初步的用户演示成功验证了系统的功能,展示了其更安全、更直观和沉浸式机器人控制的潜力。

近年来,机器人技术迅速发展,无缝集成到日常生活的各个方面,包括服务业、医疗保健和社交场景。这种不断增长的存在凸显了对有效和直观的人机交互(HRI)和协作的需求。

所述演变的关键推动因素是机器人与XR的集成,这是一种将虚拟元素叠加到现实世界中以创建身临其境的上下文感知界面的技术。通过弥合物理和数字领域之间的差距,XR增强了人机交互(HCI)的可用性、直观性和可访问性。

通过向用户提供额外的上下文相关信息的能力,XR为推进机器人远程操作、态势感知和任务性能提供了变革性的机会。大量的前期研究已经探索了XR在不同领域的机器人遥操应用,并强调了XR改善用户体验、增强任务执行力和增强态势感知的潜力,而这一切都是实现有效HRI的关键组成。

随着XR技术的发展,大型语言模型LLM已经成为包括机器人在内的各个领域的变革力量。LLM以其卓越的自然语言处理(NLP)能力而闻名,并已用于增强机器人操作和交互体验。

最近,在社交机器人领域,LLM促进了智能会话机器人,实现了更自然、更有意义的人机交流。同样,在机器人操作中,相关模型通过提供先进的推理和决策能力,已经证明了它们在提高任务绩效方面的潜力。将LLM集成到机器人系统中代表了重新定义人类与机器人交互方式的有希望途径,为更直观,高效和可访问的解决方案铺平了道路。

在相关进步的基础上,瑞典皇家理工学院团队引入了LLM驱动的XR操作系统。这种远程操作框架结合了LLM和XR的功能,实现了与机器人的语音命令,无控制器交互,如图1所示。

所提出的系统不再需要物理控制器,而是允许用户通过自然语言指令直观地操作虚拟机器人。相关语音命令由LLM实时处理,并无缝地转化为物理机器人执行的动作。通过用语音驱动命令取代传统的控制器,所提出的系统显着提高了可访问性,使机器人远程操作对非专业用户和不同身体能力的个人更具包容性。

系统是通过Meta Quest 3实现。通过引入由LLM支持的无控制器、语音驱动的交互模型,尖端的NLP功能与沉浸式XR技术的融合为解决HRI和HCI中的挑战提供了一种创新方法。这种集成不仅为革命性的机器人远程操作提供了一个开创性的框架,而且为用户与机器人系统交互提供了一种更自然、更直观的方式。

通过解决与可访问性和易用性相关的障碍,这种以人为中心的方法强调包容性和简单性,扩大了机器人在不同领域的应用范围。例如,在工业环境中,工人可以远程命令机器人执行复杂的任务,无需经过专门培训。在医疗保健领域,从业者可以依靠语音引导的远程手术来精确操作外科机器人或患者护理。

另外,系统的多功能性还可以扩展到危险环境控制、教育机器人和工业自动化等领域,为专家和非专业用户提供变革的可能性。

相关论文LLM-Driven Augmented Reality Puppeteer: Controller-Free Voice-Commanded Robot Teleoperation

总的来说,团队提出了一个无控制器,LLM驱动的声控XR机器人远程操作系统,标志着朝着更直观,可访问和身临其境的HRI迈出了重要一步。通过集成XR和NLP,所述方法消除了传统输入设备的限制,实现了人与机器人之间流畅和自然的交流。

这一进步降低了机器人控制的障碍,使其对不同技能水平和应用领域的用户更具包容性。除了增强可访问性和可用性之外,系统同时为机器人远程操作和交互式自动化的未来发展奠定了基础。

它的潜力扩展到针对特定任务的自适应学习、多模态输入集成和协作机器人,其中机器人可以在更动态和复杂的环境中智能地响应用户命令。同时,它通过XR驱动的可视化融合物理和数字世界的能力,为工业、医疗和其他研究环境中的安全、培训和实时机器人监督开辟了新的机会。

]]>
4D高斯+物理渲染实现可调光体三维视频,提升逼真视觉效果 https://news.nweon.com/130267 Tue, 10 Jun 2025 23:56:04 +0000 https://news.nweon.com/130267 在不同的照明条件下提供逼真、逼真的视觉效果]]> 查看引用/信息源请点击:映维网Nweon

在不同的照明条件下提供逼真、逼真的视觉效果

映维网Nweon 2025年06月11日)体三维视频通过捕获动态3D场景实现身临其境的体验,从而支持虚拟现实等各种应用。然而,传统的方法在固定的照明条件下挣扎,而神经方法在效率、质量或可照明场景的适应性方面面临权衡。为了解决所述限制,上海科技大学,NeuDim和DGene团队提出了BEAM。

这个新颖的管道将4D高斯表示与基于物理的渲染(PBR)连接起来,从多视图RGB素材中生成高质量,可调光的体三维视频。BEAM通过一系列基于高斯的技术恢复详细的几何形状和PBR属性。它首先将基于高斯的性能跟踪与几何感知光栅化结合在一个coarse-to-fine优化框架中,以恢复空间和时间一致的几何形状。

团队通过逐步整合PBR属性进一步增强高斯属性,并利用多视图条件扩散模型生成粗糙度,然后使用2D到3D策略导出AO和基色,并结合定制的基高斯光追器进行有效的可见性计算。一旦恢复,动态的,可照明的资产无缝集成到传统的CG管道中,支持延迟着色的实时渲染和光线追踪的离线渲染。

体三维视频从多个角度捕获动态3D场景,允许从任何角度进行交互式观看。这项技术对于在虚拟和增强现实中创造身临其境的体验,通过逼真的互动内容增强故事讲述、教育、文化保护和远程呈现至关重要。

然而,传统的体三维视频通常受到录制期间捕获的固定照明条件的限制,这可能与动态或虚拟环境发生冲突,降低真实感和灵活性。可重照明体三维视频通过启用捕获后重照明克服了这一限制。

这允许无缝集成到动态照明环境中,并提供对视觉美学的创造性控制。行业中用于制作可重照明体三维视频的主流工作流程依然依赖于追踪的网格序列和纹理视频。视频可以无缝集成到标准CG管道中,以支持各种照明条件下的重照明。然而,复杂的重建过程经常会引入诸如孔洞和噪点之类的伪影,并且重照明的质量受到限制,经常导致可见的缺陷。

神经学方面的进展侧重于在隐式MLP表示中使用神经分解实现重照明功能。然而,相关方法经常面临平衡训练效率、渲染速度和输出质量的挑战,最终无法提供令人满意的结果。

最近,3DGS以前所未有的帧率实现了逼真的渲染。尽管动态变体可以生成高质量的体三维视频,但它们无法生成重照明等基本操作所需的详细几何形状。业界已经努力将基于物理的渲染集成到3DGS管道中,不过它们通常计算成本很高,并且仅限于静态场景。

相关问题严重限制了它们在工业工作流程中的适用性,阻碍了4D内容的高效生产。在一项研究中,上海科技大学,NeuDim和DGene团队介绍了BEAM。这种新颖的管道将4D高斯函数与精确的PBR连接起来,用于从多视图RGB素材中生成可重照明的体三维视频。

关键思想是稳健地恢复详细的几何形状和解耦PBR属性(例如环境遮挡,粗糙度和基色),并使用一套精心选择的技术,即,栅格化,性能跟踪和光追,而所有这一切都在基于高斯的范式中。

所以,BEAM实现了逼真的动态场景,可以在不同的照明下无缝地、CG友好地集成到各种平台中。他们首先从多视点视频输入中恢复详细且时空一致的几何形状,将基于高斯的性能跟踪与几何感知的高斯光栅化有机地结合在一起。前者擅长运动跟踪,后者擅长静态几何恢复,研究人员将它们统一在一个coarse-to-fine优化框架中。

具体来说,使用粗略关节高斯函数来追踪非刚性运动,使用密集蒙皮高斯函数来保留复杂的几何细节。团队采用了一种鲁棒优化过程,集成了法向一致性、光度一致性和时间正则化,以提高几何精度和平滑度。这使得使用几何感知光栅器从密集高斯中获得准确的深度和正常恢复,为材质分解和重照明提供了坚实的基础。

研究人员进一步解耦密集的4D高斯函数,以恢复详细的材质属性,实现高质量的物理渲染。他们专注于准确地将粗糙度,环境遮挡(AO)和基色属性与高斯函数关联起来,确保在不同照明条件下的逼真和适应性渲染。为了实现这一目标,采用循序渐进的方法来解开属性。

具体来说,首先使用材质扩散模块与多视图条件生成粗略纹理。然后,对于AO和基色,采用2D-to-3D策略,在输入视图中估计属性来烘烤2D材质贴图,然后在3D空间中优化成相应的密集高斯分布。

所述策略有效地降低了噪点,平滑了解纠缠,提高了重照明质量。对于进一步的2D AO和基色分解,可以使用现成的工具估计捕获过程中的照明环境,而几何属性和粗糙度则在前一阶段获得。因此,通过仔细地重新检查和简化渲染方程,团队确定了一个关键的见解:在光追过程中,可以通过积累的特定方向上特定点的可见性信息准确地导出2D AO和基色。

团队定制了基于高斯的追踪器来计算这种可见性,并采用了一种基于密集高斯的alpha blending策略。这有效地捕获了可见性信息,为估计输入视点中的AO和基色图奠定了基础。

一旦材质属性烘烤到密集动态高斯,4D资产与传统的CG引擎无缝集成,以支持灵活的渲染工作流程。对于实时渲染,采用延迟着色来提供沉浸式和高效的可视化,而离线渲染则利用光追来精确捕获复杂的阴影和遮挡。

团队进一步开发了一个Unity插件,以将4D资产无缝集成到各种平台中,从而在不同的照明条件下进行实时,逼真的交互。

团队进行了用户研究。他们在捕获的数据集评估了所提出方法,将其与R-3DGS, GS-IR和D-2DGS进行比较,并要求30个用户选择最佳选项。

对于GS-IR和R3DGS,分别训练了200帧的高斯模型,并将每帧的法线贴图连接起来。对于所提出方法和D-2DGS,从一个200帧的动态高斯序列光栅化一个法线贴图序列。在时间重建质量方面,95.65%的用户更喜欢团队的方法。偏好结果清楚地表明,所提出方法比竞争方法有显著的优势,证明了它在这两个方面的优越性能。

当然,尽管实现了高质量的沉浸式渲染,但所提出方案存在一定的局限性。首先,将新属性集成到原始高斯中会导致动态高斯序列的大量存储需求,所以未来的研究将考虑压缩相关序列。其次,他们近似渲染方程来获得二维材质贴图,这在解耦的材质结果中引入了误差,并且不能准确地反映真实的物理世界,所以未来的工作可能会通过结合大模型来解决这个问题。

相关论文BEAM: Bridging Physically-based Rendering and Gaussian Modeling for Relightable Volumetric Video

不过,所述方法与传统CG引擎高度兼容,为增强渲染真实感和灵活性提供了巨大的潜力。

]]>
XR日报:visionOS 26兼容索尼VR控制器,新增Mac VR串流等 https://news.nweon.com/130265 Tue, 10 Jun 2025 00:56:03 +0000 https://news.nweon.com/130265 本日报由AI生成,可能存在信息错误,具体可查看原文。]]>

本日报由AI生成,可能存在信息错误,具体可查看原文。

◐ 苹果发布visionOS 26,兼容索尼PSVR2控制器,升级Avatar逼真细节还原

苹果在WWDC正式推出visionOS 26系统,为Apple Vision Pro带来多项革新功能。该系统重点强化了空间计算体验,包括:

  • 立体化小组件支持深度自定义,可无缝融入物理空间;

  • 本地多人共享空间体验,支持协同观影、游戏和工作;

  • 采用生成式AI的照片景深增强技术,创建逼真空间场景;

  • 全面升级的Avatar系统,提升发丝、肤色等细节还原度;

  • 新增对GoPro/Insta360/佳能全景内容的原生播放支持;

  • 兼容索尼PSVR2 Sense控制器,提升游戏沉浸感;

  • 推出企业级API,强化设备管理和内容安全。

系统同时优化了人机交互,包括眼神滚动浏览、通话接力、主屏幕文件夹等实用功能。苹果副总裁Mike Rockwell表示,此次更新重新定义了空间计算的连接与协作方式,开发者已可通过官方渠道获取更新。

◐ 苹果研发Vision Pro串流工具macOS Spatial Rendering

苹果在介绍visionOS 26时提到新增”macOS Spatial Rendering”功能,允许利用Mac的算力将沉浸式内容直接渲染并串流至Vision Pro,但未透露具体细节。这一功能可能预示着苹果正在开发第一方游戏串流解决方案,以改善当前仅支持屏幕镜像的Mac虚拟显示功能。虽然Vision Pro已支持PSVR 2等第三方控制器,但苹果是否计划借此支持原生PC VR游戏仍属猜测,官方尚未确认相关功能细节。

◐ visionOS启发苹果全家桶OS UI采用液态玻璃设计,实现全平台一致性体验

苹果在WWDC 25大会上推出受visionOS启发的”Liquid Glass(液态玻璃)”设计语言,将iOS、macOS等全系统升级至26版本。该设计采用半透明动态材质,能反射环境光线并实时响应交互动作,覆盖从按钮到系统界面的所有元素。苹果强调这是公司史上最大规模的软件设计更新,通过自研芯片与实时渲染技术实现玻璃质感与流体动态的结合,既保持各平台特性又强化一致性体验,为未来交互奠定基础。人机交互副总裁Alan Dye表示,新设计重新定义了软件基础元素的美学与功能性。

◐ 苹果推送visionOS 26首个开发者测试版

苹果正式推送visionOS 26首个开发者预览版(23M5263m),重点升级空间计算体验并扩展硬件兼容性。新版本主要特性包括:可融入物理空间的环境小组件、基于生成式AI的照片景深增强、Avatar形象升级、共享空间协作功能,新增对GoPro/Insta360/佳能全景拍摄设备的支持,以及企业API和PSVR 2 Sense控制器兼容。开发者需通过注册账号获取测试权限,建议安装前备份设备数据,可通过设置菜单或Xcode模拟器进行体验。该版本标志着苹果在空间计算生态建设上的重要推进。

◐ 苹果WWDC 2025大会“空间计算”主题演讲视频汇总

随着WWDC 2025大会的开幕,苹果正陆续放出一系列的主题演讲视频。

对于空间计算,这家公司为开发者准备了多个相关视频,视频提供字幕选项。

◐ 传Meta 2026年高端分体式XR头显搭载Micro OLED面板

据消息人士Luna和布拉德·林奇透露,Meta计划于2026年发布一款对标Apple Vision Pro的高端分体式头显,售价预计在300至1000美元之间。该设备可能采用0.9英寸Micro OLED面板,支持自动IPD调整及虹膜/面容解锁功能。消息称,其显示配置或优于Bigscreen Beyond等同类产品,具备高对比度与色彩表现。此外,Meta正与迪士尼等娱乐公司洽谈内容合作,但官方尚未回应相关报道。

◐ VR游戏《Attack on Titan VR: Unbreakable》登陆PICO头显

开发工作室UNIVRS推出的VR游戏《Attack on Titan VR: Unbreakable》现已支持PICO头显,相较于Meta Quest的分章节版本,PICO版为完整游戏并新增七种字幕语言选项。玩家将扮演调查兵团成员,使用立体机动装置与巨人战斗,游戏难度逐步提升,考验玩家的反应与策略能力。游戏提供单人、合作及生存模式,其中合作模式支持双人联机,生存模式则需击败100个巨人以证明实力。此外,游戏支持日语配音及多语言字幕,还原原作体验。

◐ 微软员工开发SteamVR驱动为WMR头显提供Windows 11 24H2支持

微软宣布Windows 11 24H2将终止对WMR平台支持后,一位自称微软前MR团队员工的Reddit用户”mbuchia”正开发非官方SteamVR驱动程序。无需混合现实门户即可运行,适配所有WMR头显(包括宏碁AH100、HP Reverb G2等),保留6DoF追踪和控制器功能等。

]]> 苹果WWDC 2025大会“空间计算”主题演讲视频汇总 https://news.nweon.com/130264 Tue, 10 Jun 2025 00:50:03 +0000 https://news.nweon.com/130264 共19个]]> 查看引用/信息源请点击:映维网Nweon

共19个

映维网Nweon 2025年06月10日)随着WWDC 2025大会的开幕,苹果正陆续放出一系列的主题演讲视频。对于空间计算,这家公司为开发者准备了多个相关视频。

以下是具体的整理,目前共19个,点击小标题即可前往(视频提供字幕选项):

借助 SwiftUI 在 visionOS 中设置场景

探索精彩的全新 API,为你的 visionOS App 打造更出色的窗口、空间容器和沉浸式空间。微调场景在重新启动或固定位置时的行为。通过裁剪边缘和对齐,根据周边环境来调整空间容器。将流媒体格式的沉浸式内容从 Mac 传输到 Apple Vision Pro。借助空间容器和沉浸式空间,让基于 UIKit 的现有 App 更上一层楼。

提升 App 的音频录制功能

介绍空间音频录制和编辑功能,这些功能可让你隔离语音和环境背景音,所有这些功能均可使用AudioToolbox、AVFoundation和Cinematic框架实现。

支持 visionOS App 播放沉浸视频

了解如何在 visionOS App 中播放沉浸视频。我们将介绍各种沉浸感十足的渲染模式、查看支持这些模式的框架,并讲解如何在你的 App 中渲染沉浸视频。为了充分利用好本次视频,我们建议你先观看 WWDC25 讲座“探索 visionOS 的视频体验”。

了解 SwiftUI 空间布局

探索使用 SwiftUI 开发空间体验的新工具。了解 visionOS 上 3D SwiftUI 视图的基本知识,借助深度对齐功能来自定现有布局,并使用修饰符在空间中旋转和放置视图。探索如何使用空间容器在同一 3D 空间中对齐视图,打造更沉浸、更引人入胜的 App。

空间网页的新功能

了解 visionOS 26 上适用于网页的最新空间功能。我们将介绍如何使用全新的 HTML 模型元素来显示内联 3D 模型。我们还将分享模型照明、交互和动画等强大功能。了解如何在你的网站上嵌入新支持的沉浸式媒体,例如 360 度视频和 Apple 沉浸视频。另外,你还将抢先体验如何在网页中添加自定环境。

SwiftUI 的新功能

了解 SwiftUI 中用于为任一 Apple 平台打造出色 App 的新功能。我们将探索如何通过 Liquid Glass 为你的 App 提供焕然一新的外观和风格。了解如何通过框架增强功能和新的 Instrument 来提升性能,以及如何整合网页内容和多信息文本编辑等先进功能。我们还将向你展示 SwiftUI 如何扩充自身的应用范围,包括在三维空间中布局视图。

用于打造沉浸式 App 的 Metal 渲染的新功能

探索用于通过 Compositor Services 打造沉浸式 App 的 Metal 渲染的最新改进。了解如何通过添加悬停效果来突出展示 App 的交互式元素,以及如何通过动态渲染质量实现更高保真度的渲染。了解新的 progressive 沉浸样式。探索如何通过将 Mac 中的 Metal 内容直接渲染至 Vision Pro,来为 macOS App 提供沉浸式体验。 要充分利用好本次讲座,请先观看 WWDC23 讲座“探索 Metal 技术打造沉浸式 App”。

了解 Apple Projected Media Profile

深入了解 Apple Projected Media Profile (APMP),并探索 APMP 如何通过视频扩展使用信号技术在 QuickTime 和 MP4 文件中实现 180º/360º 和宽视角投影。我们将针对如何使用 OS 提供的框架和工具对包含 APMP 的媒体进行转换、读/写、编辑和编码提供相关指导。我们还将介绍 Apple Positional 音频编解码器 (APAC) 的功能,这些功能可用于创建和交付空间音频内容,从而打造出极具沉浸感的体验。

针对 visionOS 设计小组件

了解如何为 visionOS 26 设计美观的小组件,确保完美融入用户周围的环境。了解如何在小组件设计中添加深度,并为空间计算自定材质、尺寸和风格。我们将介绍如何针对 visionOS 调整你现有的小组件,或设计出类似真实物体的全新小组件。

与附近用户共享 visionOS 体验

了解如何为同一房间内佩戴 Apple Vision Pro 的用户打造共享体验。我们将展示如何在你的 App 中整合同播共享并充分利用 ARKit,介绍与附近 FaceTime 通话参与者共享窗口的流程有哪些更新,并介绍旨在实现流畅协作的全新 API。探索相关最佳实践,了解如何为身处同一空间的用户打造别具特色、易于发现且引人入胜的协作功能。

visionOS 26 的新功能

探索 visionOS 26 中精彩的新功能。了解增强版视体 API,以及如何综合利用 SwiftUI、RealityKit、ARKit 的强大功能。探索如何利用更快的手部跟踪和空间配件输入,构建更加引人入胜的 App 和游戏。抢先预览同播共享、Compositor Services、沉浸式媒体、空间网页、企业 API 等方面的更新。

搭配使用更出色:SwiftUI 和 RealityKit

了解如何在 visionOS 26 中无缝整合 SwiftUI 和 RealityKit 的强大功能。我们将探索 Model3D 的增强功能 (包括动画和 ConfigurationCatalog 支持),并展示如何顺利过渡到 RealityView。你将了解如何借助 SwiftUI 动画实现 RealityKit 组件更改、实现交互式操控、使用新增 SwiftUI 组件打造更丰富的互动体验,以及从 SwiftUI 代码中观察 RealityKit 的变化。我们还将介绍如何利用统一坐标转换进行跨框架坐标变换。

了解 Apple 沉浸视频技术

探索 Apple 沉浸视频和 Apple 空间音频格式技术的功能,以打造真正的沉浸式体验。了解新的 ImmersiveMediaSupport 框架,该框架可读取和写入必要的元数据来实现 Apple 沉浸视频。了解在单独的文件中编码和发布 Apple 沉浸视频内容以通过 HLS 进行播放或流媒体播放时应遵循的准则。 为了充分从这个讲座中获益,建议你先观看“探索 visionOS 的视频体验”。

探索 visionOS 上的空间配件输入

了解如何将空间配件整合到你的 App 中。展示虚拟内容、与 App 进行交互、在空间中进行追踪,并获取有关交互效果的信息,进一步提升 visionOS 上的虚拟体验。

为 visionOS 设计悬停交互

了解如何为你的 visionOS App 创建高级交互。我们将探索如何设计引人入胜的自定悬停效果和动画,如何避免常见错误,如何充分利用 Look to Scroll 等交互方式,以及如何使用持久化效果来构建直观的媒体控制项。

针对 visionOS 优化你的自定环境

探索如何使用程序化工具为你的 visionOS App 或游戏创建精美的沉浸式环境。我们将分享创建高质量环境的构建要素,然后深入探讨优化流程。了解如何使用 Apple 针对 Houdini 提供的一整套流程,减少场景的多边形数量、进行几何清理、打包 UV 贴图,并创建 USD 素材以便导入到 Reality Composer Pro 或你选择的游戏引擎中。

了解面向空间商务 App 的增强功能

在去年发布的访问和企业级功能基础上,visionOS 26 中最新的增强功能和 API 实现了进一步扩展,快来一探究竟吧!了解这些全新功能如何助你轻松构建模型训练工作流程、增强视频影像,并在本地网络上统一坐标系,从而为企业内部 App 打造协作体验。

探索 visionOS 的视频体验

了解在你的 App 中创建和呈现沉浸视频体验的不同方式。我们将探索 visionOS 26 中提供的多种媒体类型 (包括 180°、360°和宽视野视频的配置文件)、用来创建和播放 Apple 沉浸视频的选项,以及适用于 2D、3D 和空间视频的扩展功能。探索哪些配置文件最适合你的 App 和内容。

RealityKit 的新功能

利用全新的 RealityKit 功能尽情挥洒创意,这些功能可帮助你为 iOS、iPadOS、macOS、Apple tvOS 和 visionOS 构建丰富的 3D 内容。了解如何直接通过 RealityKit 来访问 ARKit 数据。探究如何使用对象操作功能与 3D 内容进行更自然的交互。通过一个交互式示例,探索一些适用于场景理解、环境融合、实例化等方面的新 API。

更多相关视频请访问苹果官网

]]>
苹果研发Vision Pro串流工具macOS Spatial Rendering https://news.nweon.com/130262 Tue, 10 Jun 2025 00:44:03 +0000 https://news.nweon.com/130262 第一方游戏串流解决方案。]]> 查看引用/信息源请点击:映维网Nweon

第一方游戏串流解决方案。

映维网Nweon 2025年06月10日)对于全新的visionOS 26,苹果在介绍游戏和配件时谈到这个系统新增“macOS Spatial Rendering”。但遗憾的是,团队没有深入介绍,只是略微提到“通过macOS Spatial Rendering,你可以利用Mac的强大功能将沉浸式内容直接渲染和流式传输到Vision Pro”。

然而,这可能意味着苹果正在研发第一方的游戏串流解决方案。

Apple Vision Pro支持Mac虚拟显示功能,但这只是简单的Mac屏幕镜像功能,需要搭配使用触控板或鼠标。所以,大多数用户会选择通过ALVR和Virtual Desktop等第三方串流工具来畅玩SteamVR游戏。

对于全新的visionOS 26,苹果表示这个系统新增“macOS Spatial Rendering”支持。其中,“通过macOS Spatial Rendering,你可以利用Mac的强大功能将沉浸式内容直接渲染和流式传输到Vision Pro”。尽管没有深入说明,但考虑到Apple Vision Pro已经开始支持索尼PSVR 2等第三方控制器,所以苹果或者是在探索第一方串流解决方案,从而允许用户流畅便捷地畅玩一系列的原生PC VR游戏。

当然,这仅仅只是猜测,尚未得到苹果的证实。

]]>
传Meta 2026年高端分体式XR头显搭载Micro OLED面板 https://news.nweon.com/130257 Tue, 10 Jun 2025 00:04:04 +0000 https://news.nweon.com/130257 Meta在2026年发布的高端分体式头显有可能采用0.9英寸Micro OELD面板,支持自动IPD调整和虹膜/面容解锁等]]> 查看引用/信息源请点击:映维网Nweon

Meta在2026年发布的高端分体式头显有可能采用0.9英寸Micro OELD面板,支持自动IPD调整和虹膜/面容解锁等

映维网Nweon 2025年06月10日)综合知名消息人士Luna和布拉德·林奇(Brad Lynch),Meta在2026年发布的高端分体式头显有可能采用0.9英寸Micro OELD面板,支持自动IPD调整和虹膜/面容解锁等。

根据《华尔街日报》,Meta将在2026年发布一款定位分体式头显,构思接近于厚框式眼镜,定位高端,对标Apple Vision Pro,售价超过300美元,但低于1000美元。不过,暂时不清楚具体的规格信息。同时,这家公司正在与迪士尼和A24等娱乐巨头,以及其他制作厂进行谈判,以获取基于热门IP的沉浸式视频内容。

现在综合知名消息人士Luna和布拉德·林奇(Brad Lynch)的消息,这款设备有可能采用0.9英寸Micro OELD面板,支持自动IPD调整和面容解锁等。

其中,林奇表示,正在测试的一个显示器配置是双0.9英寸Micro OLED,略微小于Bigscreen Beyond和即将亮相的小派Dream Air SE。尽管不确定具体的像素密度,但这种类型的面板可以提供令人印象深刻的对比度、真黑色和色彩感。

另外,根据对代码的挖掘,Luna发现这款头显可能支持自动IPD调整,这意味着透镜可以根据用户视力参数实现水平移动,从而匹配眼睛的间距。另外,与Apple Vision Pro类似,Meta的新头显有望支持虹膜/面容扫描解锁,从而避免了繁琐的PIN码解锁。

Meta并未对相关报道置评。

]]>
苹果发布visionOS 26,兼容索尼PSVR2控制器,升级Avatar逼真细节还原 https://news.nweon.com/130241 Tue, 10 Jun 2025 00:04:03 +0000 https://news.nweon.com/130241 visionOS 26]]> 查看引用/信息源请点击:映维网Nweon

visionOS 26

映维网Nweon 2025年06月10日苹果在WWDC大会正式发布了visionOS 26,带来开创性的空间计算体验和多种全新Apple Vision Pro功能,包括可以无缝融入用户空间的各类小组件;利用生成式AI为照片添加逼真的景深效果的空间场景;重磅增强的自影像(Avatar);共享空间体验;新增对GoPro、Insta360和佳能设备拍摄的180度、360度及宽视场内容的支持;全新的企业API;索尼PSVR 2 Sense 控制器支持等等。

Apple Vision Products Group副总裁迈克·罗克韦尔(Mike Rockwell)表示:“Apple Vision Pro定义了空间计算新时代的可能性。随着visionOS 26的推出,我们再次突破了边界。Apple Vision Pro用户连接、探索、协作和欣赏内容的方式得到了革新,我们满怀激动地期待着用户们在Apple Vision Pro里布置和利用app和小组件功能,在空间场景中感受全新的照片观看体验,并享受更加惊艳的自影像。”

下面是visionOS 26的主要亮点:

小组件更有立体感

在整个苹果生态系统中,小组件为用户带来一目了然的个性化和实用信息概览,在 visionOS 26 的加持下,小组件更具立体感,无缝融入用户空间,会在用户每次戴上 Apple Vision Pro 时显示。visionOS 26 的小组件外观可调整,有多种边框大小、颜色和深度供用户选择。时钟、天气、音乐和照片等全新精美小组件带来独一无二的交互和体验。

在 visionOS 26 中,用户可用喜欢的小组件来装点他们的空间,包括绝美全景和承载着难忘回忆的空间照片。

用户可用喜欢的小组件来装点他们的空间,从绝美全景和承载着难忘回忆的空间照片,到有着独特表盘的时钟,还能一触即达 Apple Music,聆听最爱歌单和歌曲。小组件 app 能让用户找到各种小组件,包括可兼容运行 iOS 和 iPadOS 的 app。开发者也能通过 WidgetKit 来开发他们自己的小组件。

全部小组件(包括此处展示的日历)均可自定义,提供多种边框宽度、颜色和深度选项。

加强版共享空间体验

通过 visionOS 和家人、朋友以及同事的远程联系体验让人爱不释手,而有了 visionOS 26,用户可以和同处一室的其他 Apple Vision Pro 用户共享空间体验。用户可以一起观看最新的热门 3D 电影、玩空间游戏,或是与同事协作。用户还可以通过 FaceTime 通话添加世界各地的远程参与者,与四面八方的人们相互联系。

例如,工程与 3D 设计软件的头部供应商 Dassault Systèmes 正在用他们的 3DLive app 发挥这一功能,供用户以面对面或远程的方式和工作伙伴合作,实现 3D 设计的可视化。

如上图所示,Dassault Systèmes 在他们的 3DLive app 中充分运用 visionOS 26 的功能,帮助用户在和工作伙伴面对面或远程合作时将 3D 设计可视化。

重磅增强的自影像(Avatar)

visionOS 26 让自影像更自然熟悉。在行业领先的体积渲染和机器学习技术的帮助下,全新的自影像带来令人惊艳的表现力和清晰度,可呈现出完整的侧面轮廓视图,以及极为精确的发丝、睫毛和肤色。自影像依旧只需几秒钟时间即可在设备端创建,在升级后的初始设定步骤中,用户可以调整和预览他们的自影像在空间中呈现的效果,包括 1000 多种眼镜造型可供选择。

自影像迎来颠覆性革新,发丝、睫毛和肤色等还原度极大增强,生成的形象更自然、更熟悉。

空间场景登场

visionOS 26 中的空间照片更为逼真,运用新的生成式 AI 算法和计算景深营造出多种视角下的空间场景,让用户忍不住想要靠近并向四处张望。

空间场景利用新的生成式 AI 算法为照片添加逼真的景深效果。

用户可在照片 app 和 Safari 浏览器内浏览空间场景,开发者则可利用空间场景 API 让他们的 app 呈现出更加令人身临其境的效果。Zillow 便在他们的 Zillow Immersive app 中使用了空间场景 API,运用空间场景为用户呈现具有丰富空间感和纵深感的房屋和公寓图片。

Safari 浏览器的空间浏览:浏览、娱乐和观看内容的新方式

用户可以选择空间浏览让 Safari 浏览器上的文章阅读体验焕然一新;排除干扰并在浏览时展开栩栩如生的空间场景。网页开发者可以将 3D 模型直接植入网页,用户在 Safari 浏览器上即可查看并操控 3D 的物品模型,带来具有空间感和纵深感的浏览和购物体验。

用户可以选择空间浏览让 Safari 浏览器上的文章阅读体验焕然一新;排除干扰并在浏览时展开栩栩如生的空间场景。

支持原生播放 Insta360、GoPro 和佳能设备拍摄的 180 度、360 度和宽视场内容

visionOS 26 支持原生播放 Insta360、GoPro 和佳能设备拍摄的 180 度、360 度和宽视场内容。用户能够以自然的方式尽情欣赏激动人心的 2D 动作画面。开发者可将这一全新播放功能融入其 app 和网站。

索尼PSVR 2控制器支持

visionOS同时新增对 PlayStation VR2 Sense 控制器的支持。如今,在 6DoF 高性能动作追踪、触控监测和震动的支持下,开发者可以在 Apple Vision Pro 上呈现更具沉浸感的游戏体验。

用户可连接 PlayStation VR2 Sense 控制器,在Apple Vision Pro感受更上层楼的游戏体验。

企业 API 和工具

全球企业都在运用 Apple Vision Pro 的空间计算功能为他们的设计、培训、销售和教育等工作流赋能。组织可借助团队设备共享等新功能便捷地设定和管理共享设备。用户的眼部、手部数据,验光处方和运行 iOS 26 的 iPhone 辅助功能设置将被妥善保密并可沿用至其他 Apple Vision Pro 设备,分享更为便捷。

内容保护 API 等企业专用 API 将通过阻止复制、截屏和屏幕共享等行为,确保医疗记录或商业预测等机密文件仅对有权限的人员开放。

另外,visionOS 26新增了对 Logitech Muse的支持,这是专为 Apple Vision Pro 打造的空间配套设备,带来精确的输入体验,开启通过Spatial Analogue 等协作 app 互动的新方式。

visionOS 26 的其他功能

visionOS 26 的其他功能主要包括:

  • Look to Scroll 功能让用户通过眼神操控即可浏览 app 和网页。用户可以自定义滚动的速度,开发者则可将 Look to Scroll 功能与他们的 visionOS app 整合。
  • 在重新设计的控制中心,客人用户、专注模式、旅行模式等功能便捷地在同一视图中显示,供用户轻松管理音乐、调节环境设置和连接 Mac 虚拟显示器。
  • 即便在“环境”等沉浸式体验过程中,用户也能在佩戴 Apple Vision Pro 时解锁他们的 iPhone。这一功能可通过带面容 ID 并运行 iOS 26 系统的 iPhone 上的“设置”实现。
  • visionOS 26 支持来自 iPhone 的通话接力,用户现可用 Apple Vision Pro 直接接听电话,也可选择通讯录里的联系人号码或点击网页中的电话号码,通过 People View 发起通话。
  • 主屏幕视图现支持文件夹,供用户重新排列和分组管理 app。

更多信息请访问苹果开发者官网

]]>
VR游戏《Attack on Titan VR: Unbreakable》登陆PICO头显 https://news.nweon.com/130255 Tue, 10 Jun 2025 00:04:02 +0000 https://news.nweon.com/130255 《进击的巨人》]]> 查看引用/信息源请点击:映维网Nweon

《进击的巨人》

映维网Nweon 2025年06月10日)根据开发工作室UNIVRS,基于热门漫画和动画《进击的巨人》的VR游戏《Attack on Titan VR: Unbreakable》现在已经支持PICO头显。与Meta Quest分成Part 1和Part 2不同,PICO版游戏属于完整版本,而且增加了七种额外语言的新字幕选项。

根据官方介绍,在《Attack on Titan VR: Unbreakable》中,玩家的任务是作为调查兵团的成员承担独特的任务,并通过立体机动装置,并用刀剑,智慧和超强反应来消灭强大的巨人。然而,敌人非常多,战斗会变得越来越艰难,所以只有拥有坚定决心和技能的人才能在最后的战斗中幸存下来。

另外,《Attack on Titan VR: Unbreakable》提供单人模式和合作模式。其中,在合作模式:在合作模式中与另一名玩家联手,共同完成每个章节。至于生存模式,你可以测试自己的极限——击败100个巨人,从而证明你是精英调查兵团成员。

每个章节都包含多个任务,当你在一个由高耸巨人统治的世界中为生存而战时,每个任务都将考验你的策略、反应能力和勇气。游戏提供提供原汁原味的日语选项,但配有字幕和配音。

]]>
微软员工开发SteamVR驱动为WMR头显提供Windows 11 24H2支持 https://news.nweon.com/130253 Mon, 09 Jun 2025 23:58:02 +0000 https://news.nweon.com/130253 非官方的SteamVR驱动程序]]> 查看引用/信息源请点击:roadtovr

非官方的SteamVR驱动程序

映维网Nweon 2025年06月10日)尽管Windows 11已经停止了对WMR平台的支持,结束了PC VR头显领域的尝试,但现在一个非官方的SteamVR驱动程序希望为用户重用相关头显提供帮助。

随着Windows 11 24H2在2024年10月的推出,微软正式放弃混合现实门户应用、Windows Mixed Reality for SteamVR和SteamVR测试版,这使得宏碁、华硕、戴尔、联想、惠普和三星等厂商的PC VR头显成为了昂贵的镇纸器。

当然,如果你没有升级到Windows 11 24H2,或者依然在使用Windows 10,你依然可以在2026年11月之前继续开玩SteamVR的内容。不过,对于入手了WMR最新款HP Reverb G2的用户而言,这是一颗难以下咽的苦果。

现在,Reddit用户“mbuchia”声称正在研发一个非官方的SteamVR驱动程序,目的是在今年秋季帮助所有的WMR头显恢复使用。

据介绍,这个SteamVR驱动程序“不需要混合现实门户”,这意味着它可以支持Windows 11 24H2和以上版本。另外,它兼容全六自由度追踪和控制器。

尽管没有测试所有的WMR头显,但即便是宏碁AH100都可以支持。所以,理论上它应该适用于所有WMR头显。

需要注意的是,这个驱动程序的开发工作暂时保密,而由于SteamVR与GPU驱动程序的接口方式,名为Oasis的工具将仅限于Nvidia显卡。

最有趣的是,“mbuchia”表示自己是微软的员工,并曾供职于公司的MR团队。这位开发者表示:“我受保密协议和其他义务的约束。我想明确的是,我已经非常小心,不违反任何协议。特别是,我没有借用任何微软的知识产权……另外,我没有侵犯任何专有/知识产权。出于对Valve和Nvidia的尊重,我不会泄露任何他们认为不可公开的代码。”

根据这位开发者,更多信息将通过Reddit公布。

]]>
visionOS启发苹果全家桶OS UI采用液态玻璃设计,实现全平台一致性体验 https://news.nweon.com/130247 Mon, 09 Jun 2025 23:46:03 +0000 https://news.nweon.com/130247 这个全新的设计语言是受visionOS启发]]> 查看引用/信息源请点击:映维网Nweon

这个全新的设计语言是受visionOS启发

映维网Nweon 2025年06月10日苹果在WWDC 25大会官宣了全新的设计语言:“Liquid Glass(液态玻璃)”,并且将所有系统的名称改为26 版,例如iOS 26、macOS 26、iPad 26、tvOS 26、watchOS 26和visionOS 26等,从而在iOS、iPadOS、macOS和visionOS等平台之间实现一致性体验。

其中,苹果表示这个全新的设计语言是受visionOS启发:“新设计灵感源自visionOS的深度与维度感,并利用苹果强大的硬件优势、芯片性能和图像技术打造而成。新材料Liquid Glass呈半透明状,具有现实世界中玻璃的质感。其色彩受周围内容的影响而变化,并可智能适应浅色与深色环境。Liquid Glass是苹果设计和工程团队密切合作的成果,使用实时渲染技术,可对动作产生动态响应,呈现炫目的高光效果。新设计将使iPhone、iPad、Mac 和 Apple Watch的使用体验更加灵动活泼、赏心悦目。”

团队指出,这种半透明材料能够反射和折射周围环境,同时产生动态变化,进一步凸显内容,让控制、导览、app 图标、小组件等元素更具活力。另外,这一精美新材料涉及按钮、开关、滑块、文本、媒体控制等用户日常交互所用的小型元素,到用于导览app的标签页栏和边栏等更大的元素。新材料同样应用于系统体验,如锁定屏幕、主屏幕、通知、控制中心等等。

同时,新设计首次同时涵盖iOS 26、iPadOS 26、macOS Tahoe 26 和 watchOS 26 等多个平台,更加和谐统一,同时每个平台与众不同的独特质感也得以延续。

苹果人机交互设计副总裁艾伦·戴伊(Alan Dye)表示:“在苹果,我们一向坚信硬件与软件的深度集成能够让人与技术的交互更加直观、美妙、令人愉快。“这是我们迄今最广泛的软件设计更新。新设计通过对软件基础元素的重新构想精心打造,采用了一种名为Liquid Glass的全新材料。这种材料结合了玻璃的光学质感与一种唯有苹果能实现的流动感,可根据用户内容或环境产生变化。它为未来的新体验奠定了基础,让哪怕最简单的交互也变得更有趣、更奇妙。”

]]>
苹果推送visionOS 26首个开发者测试版 https://news.nweon.com/130243 Mon, 09 Jun 2025 23:36:03 +0000 https://news.nweon.com/130243 visionOS 26的首个开发者测试版]]> 查看引用/信息源请点击:映维网Nweon

visionOS 26的首个开发者测试版

映维网Nweon 2025年06月10日苹果已经开始推送visionOS 26的首个开发者预览版(版本号23M5263m)。这个新版本旨在带来开创性的空间计算体验和多种全新Apple Vision Pro功能,包括可以无缝融入用户空间的各类小组件;利用生成式AI为照片添加逼真的景深效果的空间场景;重磅增强的自影像(Avatar);共享空间体验;新增对GoPro、Insta360和佳能设备拍摄的180度、360度及宽视场内容的支持;全新的企业API;索尼PSVR 2 Sense 控制器支持等等。

开发者可以通过设备端的设置应用,选择“开发者测试版”开关并进行下载。但需要注意的是,这需要注册的苹果开发者账号,而且苹果建议在安装新软件前进行备份。

在Apple Vision Pro安装visionOS测试版的具体过程:

  • 打开设置

  • 选择通用

  • 启用测试版更新

  • 选择visionOS Developer Beta。

开发者同时可以在Xcode的visionOS模拟器中尝试新版本的visionOS系统。

]]>