研发 归档 - 映维网资讯 https://news.nweon.com/develop 影响力虚拟现实(VR)、增强现实(AR)、混合现实(MR)产业信息数据平台 Fri, 09 May 2025 00:48:08 +0000 zh-CN hourly 1 PICO XR开发重大更新,发布 Native XR SDK v3.0.0 https://news.nweon.com/129621 Fri, 09 May 2025 00:48:08 +0000 https://news.nweon.com/129621 PICO 发布 Native XR SDK v3.0.0,原生 XR 开发重大更新]]> 查看引用/信息源请点击:映维网Nweon

PICO 发布 Native XR SDK v3.0.0,原生 XR 开发重大更新

映维网Nweon 2025年05月09日)PICO日前正式发布了PICO Native XR SDK v3.0.0,这是专为 PICO 设备原生 XR 开发打造的重要版本更新。本次更新不仅带来了广泛的 OpenXR 扩展支持,而且首次引入了 SecureMR —— 一个面向混合现实场景理解且具有隐私保护的 AI 开发框架。​

通过 SDK v3.0.0,开发者将获得从渲染、追踪到设备端场景理解等强大功能,同时延续了 PICO 致力于构建开放、注重隐私的 XR 开发生态的承诺。​

PICO的荆可和赵珈彬专门撰文进行了介绍:



OpenXR 1.1 支持与核心特性​

SDK 3.0.0 彰显了 PICO 对 OpenXR 标准的坚定支持,并完全兼容 OpenXR 1.1。PICO XR Runtime 现已无缝集成官方 Khronos OpenXR Loader,开发者无需再单独下载 PICO 专属 SDK,即可直接使用标准 OpenXR SDK 进行开发。​

这是迈向行业互通性的重要一步,体现了我们持续践行开放标准和倾听开发者反馈的承诺。本次发布中,PICO Neo3 系列与 PICO 4 系列(包括 PICO 4 Ultra MR 设备)均获得了大量新增 OpenXR 扩展能力 —— 包括 OpenXR 生态内的公共扩展与 PICO 专属扩展 —— 解锁更高级的设备能力,帮助开发者构建更具沉浸感、高性能、隐私友好的混合现实应用。​

SDK 3.0.0 中新增的 OpenXR 扩展​

以下是本次 SDK 中新增扩展的完整列表,包括扩展名称、分类与支持设备:​

注:眼动交互功能仅在具备眼动追踪硬件的设备上可用(如 Neo3 Pro Eye、PICO 4 Enterprise)。XR_EXT_overlay 扩展当前已在 PICO 4 Ultra 启用,Neo3 / 标准版 PICO 4 的支持计划将在后续系统更新中加入。​

借助 Native SDK,公共 OpenXR 扩展现已支持在 PICO 头显上运行,使跨平台 XR 应用更易适配。同时,PICO 也引入了若干专属扩展(标注为 PICO Only),以释放更多设备潜力。开发者可自由组合使用公共与专属扩展,打造更丰富的 XR 应用体验。所有扩展接口均已在 PICO OpenXR SDK 文档中详细说明,方便集成使用。​

使用 PICO Loader 简化开发流程​

SDK 3.0.0 的另一项重点提升是引入对官方 OpenXR Loader 的兼容支持。现在,只要使用 PICO OS 5.9 及以上版本并集成 SDK 3.0.0,PICO Runtime 即可与 Khronos 提供的 Android 版本 OpenXR Loader 协同工作,进一步简化原生开发流程。​

这对开发者意味着什么?​

你无需再使用 PICO 专属 Loader 或额外下载 SDK 包。只需使用标准 Khronos OpenXR Loader,并引入 PICO 提供的扩展头文件和库即可。新版 PICO Loader 可确保你的应用正确找到并初始化 PICO OpenXR Runtime,同时通过标准 OpenXR 机制暴露 PICO 的定制扩展。​

这一变更让代码更具可移植性,跨平台开发更高效——你的 OpenXR 应用几乎无需修改即可运行在 PICO 设备上。同时也便于你持续采用 OpenXR 的新特性。PICO 始终是 OpenXR 生态的积极贡献者,而 SDK 3.0.0 对 Loader 的支持,正是我们为开发者打造统一 XR 开发体验的重要体现。​
欢迎查阅我们的《官方文档,了解 Loader 配置步骤及如何启用 PICO 扩展接口。​

SecureMR:隐私保护的混合现实 AI 框架​

SDK 3.0.0 的另一项核心特性是 SecureMR,这是一个集成式框架,用于开发注重隐私的混合现实场景理解应用。SecureMR 通过 XR_PICO_secureMR 扩展及相关 API 提供,允许开发者在设备端进行场景理解和计算机视觉任务,而无需暴露原始摄像头数据。​

换句话说,你的应用可以通过设备内运行的 AI 流水线获取用户真实环境的洞察(如检测表面、识别物体或手势),而无需访问原始图像。​

SecureMR 的工作原理:​

与其将摄像头画面传给应用程序,SecureMR 会在设备的 DSP/NPU 上以隔离方式运行已训练的 AI 模型。这些模型可访问 RGB 和深度传感器数据,但只会将处理后的结果(如语义标签、空间网格或物体位置)返回给应用程序。这一设计实现了对环境的深入理解,同时保障用户隐私 —— 原始图像永远不会离开受保护的处理环境。​

例如,开发者可使用 SecureMR 实现应用对房间中家具的识别、或进行遮挡检测而无需操作任何原始视频数据。这将为混合现实应用带来新的体验可能,如智能遮挡、避障导航、环境感知交互等,且完全在隐私保护前提下实现。​

SecureMR 是 SDK 3.0.0 的核心组成部分,体现了 PICO 对混合现实场景下隐私与安全的重视。​
我们建议开发者阅读 SecureMR 专题文章,了解详细原理及典型用例。该博文包含如何开始使用 SecureMR、模型部署工具以及典型 AI 任务的示例说明。​

此外,文档中还提供了 SecureMR 开发指南和示例项目,帮助开发者快速构建具备内建隐私保护的 MR 应用。​

如需实际上手,可查阅《创建你的首个原生 SecureMR 应用程序》教程,该教程将引导你使用 SecureMR API 构建一个 MR 场景理解 Demo。​

SecureMR 目前支持运行 SDK 3.0.0 且系统已更新的 PICO 4 系列设备。​

SDK 3.0.0 已知问题​

如同所有大型更新,SDK 3.0.0 存在一些我们正在修复的已知问题:​

当前版本的身体追踪 API 存在问题:XrBodyJointAccelerationPICO 中的 accelerationFlags 和 XrBodyJointVelocityPICO 中的 velocityFlags 返回的数据无效(即标志值无法正确表示当前加速度或速度状态)。​

该问题影响所有试图通过 PICO 身体追踪扩展读取加速度或速度标志的应用程序。​
我们的工程团队已定位问题根源,并正在积极修复。此问题预计将在下一次 SDK 补丁更新中解决。​

值得注意的是:身体关节的位置和旋转值不受影响,仅标志字段异常。​

我们对由此带来的不便表示歉意,并建议开发者在此版本中避免依赖上述 flag 字段。请留意后续版本更新以获取修复。​

意见反馈与支持渠道​

  1. 技术问题(SDK 使用、游戏/应用开发相关):​请使用开发者网站右下角的 LLM 智能助手,或提交支持工单,或通过邮箱 developer@support.picoxr.com 联系开发支持团队。​

  2. PICO Developer Center (PDC) 使用问题:​ 请参考 PDC 故障排查文档。如问题仍未解决,可在 PDC 客户端 PC 软件的“反馈”页提交问题报告并上传日志,我们的工程团队将进行跟进。​

  3. 非技术类问题(如商务合作、应用上传、审核状态、平台使用等):​请使用开发者平台网页右下角的“联系我们”功能。​

  4. 企业设备与行业方案相关支持(PICO 4 Ultra Enterprise、PICO 4 Enterprise、Neo 3 Pro/Eye、G3、G2 4K 等):​请联系企业技术支持团队:pico-business-techsupport@bytedance.com,获取专业支持。​

]]>
PICO在HarvardXR展示创新开发者工具:赋能机器人、AI、3DGS和Web开发者 https://news.nweon.com/129509 Mon, 05 May 2025 00:04:05 +0000 https://news.nweon.com/129509 赋能机器人、AI、3DGS和Web开发者]]> 查看引用/信息源请点击:映维网Nweon

赋能机器人、AI、3DGS和Web开发者

映维网Nweon 2025年05月05日)作为 HarvardXR 2025 的赞助方之一,PICO展示了一系列旨在帮助开发者将XR 拓展至更广泛应用领域的创新技术与工具。本次大会主题为“The Augmented Self”,于 2025 年 4 月 19 日在波士顿哈佛大学举行,吸引了来自全球的 XR 行业专家、研究者、开发者、学生和爱好者参与。

在演讲中,PICO 产品经理荆可与盛若亚介绍了以下PICO创新的开发者项目:

  • XR Robotics Toolkit:一套面向 XR 设备的开源工具,支持机器人远程操控与具身智能研究。
  • PICO Splat:一款支持在 PICO 4 Ultra 上加载与渲染 3D 高斯点云(3D Gaussian Splatting)资源的开源 Unreal Engine 插件。
  • PICO Spatial ML 与 SecureMR:一套端侧 AI 和机器学习框架,SecureMR 允许开发者基于视频透视数据部署 AI 模型,并保障用户隐私。
  • WebSpatial:一个跨平台开源框架,用于将传统网站空间化,使 Web 开发者更容易将内容扩展至沉浸式 XR 环境。

以下部分将介绍每个项目的详细内容。PICO后续将在后续文章中持续发布更多更新。

XR Robotics Toolkit

XR Robotics Toolkit 的愿景是:通过 XR 塑造机器人与 AI 的未来。XR 与机器人结合的动机非常清晰:

  • 技术契合:两者均依赖空间技术,如 6DoF 追踪与双目视觉。
  • 交互优势:XR 提供适用于类人机器人远程控制的直接操控界面。
  • AI 训练:XR 支持空间对齐的数据采集,有利于训练具身 AI 模型。

以下演示录制自 PICO 4 Ultra 上的 XR Robotics Toolkit 示例应用:

在这个例子中,操作者佩戴 PICO 4 Ultra,并使用运动控制器远程操控双臂机器人。机器人的视觉来自另一台开启视频透视模式的 PICO 4 Ultra,此外,工具包也支持外接立体相机以实现第一人称视角。

另外,该工具包还可用于记录操作者头部与手部的空间运动轨迹,为机器人 AI 提供训练数据。

PICO正在推进这套工具的开源计划,计划发布 GitHub 开源仓库,内容涵盖 XR 端软件、机器人端配套工具,以及支持 Unity 与 C++ 的开发工具。

欢迎加入Discord,并关注 #xr-robotics 频道 ,获取最新动态并参与项目共建。

PICO Splat

PICO于 2024 年 8 月发布了支持 3D 高斯点云渲染技术的文章,旨在提升 XR 中的沉浸式 3D 观感体验,并收获了广泛好评。

PICO现已将 Unreal Engine 5 插件 PICO Splat 开源发布至GitHubUnreal 商店 。开发者可使用该插件在 PICO 4 Ultra 上加载并渲染 3D 与 4D 高斯点云(4DGS)资源。

以下是一些在设备上测试并捕捉的画面:

你还可以使用该插件渲染动画形式的 4DGS 内容,例如以下绘画动画演示:

欢迎加 Discord,并在#ue5-3dgs 频道 和PICO交流和提供反馈。

SecureMR

对于希望构建 AI/ML 场景理解功能的 MR 开发者来说,访问摄像头数据一直是个挑战。为解决这一问题,PICO推出了 SecureMR——一套保障隐私的端侧 AI 推理方案,专为混合现实场景打造。

以下为一个功能示例:

SecureMR 在 PICO 4 Ultra 上实时执行人脸检测,并在检测到的人脸上方渲染 3D UFO 模型。整个过程在设备本地完成,无需回传摄像头图像给应用。

除了人脸识别,SecureMR 还支持常见物体识别、姿态估计等多种模型,皆以隐私优先的方式执行。

SecureMR 工作流程如下:

  • 应用将 ML 模型发送至 SecureMR。
  • SecureMR 处理原始数据(如视频流、深度图)。
  • 推理引擎执行模型。
  • 推理结果以安全方式用于渲染或后续逻辑处理。

PICO已发布原生 C++ SDK,Unity 版本也即将上线。你可以访问SecureMR 开发者文档开发者文章GitHub 仓库 获取更多技术细节。如有问题、讨论或反馈,欢迎加入Discord,前往 #spatial-ml 频道交流。

WebSpatial

最后,PICO介绍了 WebSpatial——一款开源、跨平台的 Web 空间化开发框架,用于将传统网站空间化至 XR 设备中。

WebSpatial 降低了传统 Web 开发者进入 XR 世界的门槛。全球超过 60% 的开发者使用 Web 技术,而 XR 传统上偏向 3D 引擎开发者。WebSpatial 的目标是扩大 XR 生态的开发者基础。

以下是一个电商示例,展示了 2D 窗口内嵌 3D 模型、玻璃材质特效与空间分层等功能。

WebSpatial 是 Web 开发者构建 XR 网站的理想方案,具有以下优势:

  • 跨平台支持:兼容 Apple Vision Pro、PICO、Meta Quest、AndroidXR 等
  • 低学习曲线:继续使用熟悉的 React 与 CSS
  • 无缝空间化:原有 2D 网站可轻松拓展为 3D 空间版,不影响原站点
  • 成本低:无需学习复杂 3D 引擎,可直接使用现有 Web 框架
  • 可自定义的 3D UI:支持基于 CSS 与 React 的 3D 界面设计
  • 即时生成沉浸场景:使用“spatial div”和嵌套布局快速构建空间内容

WebSpatial 的核心功能还包括:

  • CSS 驱动的 3D 变换:轻松添加深度、材质与图层
  • React 窗口管理系统:支持多窗口的创建、销毁与交互
  • Model3D 组件:简化 3D 模型(支持 GLB、USDZ)渲染
  • 动画支持:集成 Popmotion、React-spring 等 JS 动画库实现流畅过渡

    https://v.qq.com/x/page/w30883ug7qc.html

WebSpatial 不只是一个工具,更是一个成长中的社区。欢迎加入 WebSpatial Discord,共同打造跨平台的空间 Web 未来。

PICO HarvardXR 2025 与会人员:

荆可 – 演讲嘉宾,XR Robotics 与 PICO Splat 产品经理
盛若亚 – 演讲嘉宾,SecureMR 与 WebSpatial 产品经理
王倩璐 – 开发者生态与运营

]]>
PICO分享:用SecureMR构建具备隐私保护的AI场景理解MR应用 https://news.nweon.com/129494 Fri, 02 May 2025 23:10:07 +0000 https://news.nweon.com/129494 构建具备隐私保护的 AI 场景理解 MR 应用]]> 查看引用/信息源请点击:映维网Nweon

构建具备隐私保护的 AI 场景理解 MR 应用

映维网Nweon 2025年05月03日)在信息时代,个人信息一旦泄露,就可能会对个人生活造成极大负面影响,甚至引发诈骗、身份盗用等严重犯罪行为‌。

日前,PICO的刘昀昊就分享了如何用SecureMR构建具备隐私保护的AI场景理解MR应用:

在当前对隐私日益重视的时代,人们在披露个人信息时愈发谨慎。因此,XR 头显一直未直接向大众开发者提供摄像头图像。与此同时,机器学习和人工智能的迅猛发展使得基于环境图像的场景理解和感知功能变得易于实现。这两种情况为 XR 头显带来了一个难题:如何在不泄露用户隐私的前提下,让开发者利用 AI 和 ML 的强大能力?

我们提出的解决方案 SecureMR 专为 XR 头显设计来解决这一难题:它为开发者提供了一种方法,可在头显的安全进程中运行其推理模型。该进程可访问摄像头图像,但不会将任何输出返回给应用进程。

SecureMR 工作原理

  • 应用将一个机器学习模型发送到安全环境中,由推理引擎执行。

  • 应用还会发送一系列渲染指令和 glTF 资源,用于在推理完成后渲染结果。

  • 推理引擎以摄像头图像为输入运行模型。

  • 推理输出作为渲染命令的输入,驱动结果的可视化渲染。

这一设计保证了应用无法从安全环境中获取任何数据。

Tensors(张量)

在SecureMR API 中,所有数据都以 Tensors(张量)的形式表示。它们类似于你在机器学习文档中常见的张量,但有一个关键区别:应用可以创建和写入这些数据,但无法读取它们,以确保中间值的隐私与安全。

该框架中的所有数据都通过张量传递,包括摄像头图像、模型输入输出、时间戳、切片索引、渲染参数、空间变换数据、glTF 等。glTF 张量是用于携带 glTF 文件的特殊张量容器。

Operators(算子)

算子是本框架的核心执行单元。它们通过输入输出的张量来进行数据处理。输入称为 operands(操作数),输出称为 results(结果)。算子可以:

  • 处理数据并输出新的数据(例如运行模型)

  • 执行外部动作(例如渲染)

  • 仅输出数据(例如获取摄像头图像)

重要的是:即使算子输出了数据,这些数据对应用仍是不可访问的。

常见算子示例:

  • RectifiedVstAccessOperator:无输入,输出来自头显摄像头的图像张量

  • RunModelInferenceOperator:配置模型文件、输入输出张量,运行推理引擎并输出结果张量

  • SwitchGltfRenderStatusOperator、UpdateGltfOperator、LoadTextureOperator、
    RenderTextOperator:用于屏幕渲染

  • 摄像头变换算子:实现 2D 相机坐标与 3D 世界坐标的转换,用于立体渲染

  • 数据处理、数学运算、逻辑判断等其他通用算子

Pipelines(流水线)

每个算子隶属于一个 Pipeline(流水线)。流水线是在单线程中顺序执行的一组算子。如果你有并行处理需求,或希望不同任务以不同频率运行,可以创建多个流水线并分别调度执行。

流水线中的数据保存在本地张量中。如果多个流水线之间需要共享数据,可使用全局张量。算子无法直接使用全局张量作为输入或输出,但可通过本地“占位张量”映射到全局张量,从而在运行时实现数据复用与切换。

你可以通过以下三种方式控制流水线的执行:

  • 应用主动触发执行

  • 设置流水线依据布尔型全局张量的值决定是否执行

  • 设置流水线等待另一个流水线执行完成后再执行

请参阅SecureMR 开发者文档,了解如何定义与初始化 Tensors,掌握更多关于 Operators 和 Pipelines 的细节。

示例示范

SecureMR API 可用于构建具备场景理解能力的 XR 应用。我们在开源仓库中提供了多个示例,帮助你快速上手。

MNIST 手写数字识别示例
逐步构建 SecureMR 应用,识别手写数字:
🔗 https://developer.picoxr.com/document/native/securemr-quickstart/

人脸检测 + UFO 模型展示
构建一个识别人脸并在其上方渲染 UFO 模型的 XR 应用:
🔗 https://github.com/Pico-Developer/SecureMR_Samples/tree/main/samples/ufo

物体检测示例
使用 YOLO 模型识别常见物体:
🔗 https://github.com/Pico-Developer/SecureMR_Samples/tree/main/samples/yolo_det

姿态估计示例
通过 SecureMR 进行骨架姿态识别并驱动动画:
🔗 https://github.com/Pico-Developer/SecureMR_Samples/tree/main/samples/pose

工具支持

我们还提供了开发辅助工具,帮助你更高效地构建应用。

模型转换工具

你可以从 Hugging Face、Kaggle、Qualcomm AI Hub 等平台下载通用模型。为了将其部署在头显的安全环境中,需要使用 SecureMR SDK 中的命令行工具将模型转换为适配格式。参阅转换并调试 SecureMR 模型文档以了解更多。

调试工具

由于无法直接访问安全环境中的张量,调试中间结果较困难。你可以使用 RenderTextOperator 将信息渲染到 glTF 纹理上,或使用 SDK 中的 pySecureMR Python 工具,该工具模拟 SecureMR 框架但不处理真实数据,从而便于观察所有中间值。参阅pySecureMR 调试文档以了解更多。

立即尝试,打造创新 XR 应用!

我们已经发布了原生 C++ SDK,Unity 版本即将推出。希望这些功能能激发你开发富有创意的 XR 应用!欢迎加入我们的 Discord 服务器并在 #spatial-ml 频道反馈你的体验和建议!

]]>
Passthrough Camera API v76发布,正式支持Horizon Store https://news.nweon.com/129458 Wed, 30 Apr 2025 23:56:03 +0000 https://news.nweon.com/129458 式支持Horizon Store]]> 查看引用/信息源请点击:映维网Nweon

正式支持Horizon Store

映维网Nweon 2025年05月01日Meta日前发布了的Passthrough Camera API v76 (Unity| Unreal)/Native | Android/Spatial SDK),而浏览器支持将紧随其中。最为关键的是,Horizon Store现在已经正式支持采用Passthrough Camera API的应用程序。

Meta表示,Horizon OS“开启了混合现实开发的新时代”,因为这个功能提供了对Quest 3和3S前置RGB摄像头的访问,所以开发者可以解锁利用对象追踪,机器学习和计算机视觉的新用例。

基于Android Camera2 API, Passthrough Camera API可允许开发者轻松访问几乎所有支持的Build路径,包括UnityUnreal、Native、Meta Spatial SDK、Android面板应用和Web。

开发者现在可以通过利用示例项目、代码和缩短学习曲线的最佳实践来加速他们的过程。

  • Unity:GitHub示例项目包含五个场景,演示了如何使用WebCamTexture类和Android Camera2 API访问摄像头数据,包括亮度估计,对象检测和基于着色器的效果。更多信息请访问这个文档
  • Unreal/Native:你可以访问包含最佳实践、功能特征和已知问题的文档
  • Android/Spatial SDK:你可以访问包含示例项目、最佳实践、功能特征和已知问题的文档
  • Web:请继续关注随v77发布的WebXR支持和随附文档。

Meta强调,获得前置RBG摄像头的访问权限意味着更高的责任,需要确保用户的空间数据得到适当的管理和保护。所以,Passthrough Camera API首先考虑到隐私和安全,这就是为什么开发者必须遵守严格的隐私要求,包括应用权限,并为用户提供选择提供或禁止允许摄像头访问的能力。

当你的应用请求摄像头访问时,用户会看到一个权限选择提示。在选择加入后,记录指示器将变得可见,以便用户知道相关功能已打开。通过提供用户控制和透明度,这可以帮助减轻潜在的担忧,建立信任并保持数据完整性。

]]>
Meta Quest开发者新手指引最佳实践 Part 2 https://news.nweon.com/129281 Mon, 21 Apr 2025 00:54:04 +0000 https://news.nweon.com/129281 新手指引最佳实践]]> 查看引用/信息源请点击:映维网Nweon

新手指引最佳实践

映维网Nweon 2025年04月21日Meta的增长洞察Growth Insights旨在帮助开发者提高用户粘性、留存率和盈利。作为希望从Meta Horizon Store盈利中获得最大收益的开发者,所述博文系列将为你提供有效的策略,帮助你创造可持续的体验,保持用户粘性。

延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 1
延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 2
延伸阅读Meta发布Quest App产品页优化指南:精准设定期望提升用户留存​​
延伸阅读Meta分享新手指引最佳实践 Part 1

日前,团队介绍了如何进行新手指引。Part 1主要分享了三大核心之一的Competence能力,而本文则是关于另外两个:Recall回忆和Progression成长。

作为说明,Meta认为创建有效的新手体验涉及三个基本支柱:

  • Competence能力:玩家通过学习和实践掌握游戏机制、操作技巧或策略的能力,体现为对游戏控制的自信和熟练度。这包括学习和执行与应用系统的理想交互相关的控制的能力。应用教程的大部分内容都是用于引导用户掌握技能。

  • Recall回忆:玩家对游戏内容(如规则、剧情、地图布局等)的记忆能力,或游戏设计中对玩家记忆需求的强度。这对于沉浸式体验来说尤其重要,因为界面惯例依然在不断演变。如果没有合适的回忆支持,用户可能需要在每个会话中重新学习控制。

  • Progression成长:这是教程和核心用户体验之间的桥梁,主要指玩家在游戏中的长期发展轨迹,通常通过角色能力提升、资源积累或剧情推进体现。升级系统、战斗通道、锻造系统或其他显示成长的方式都有助于用户获得技能,并向他们展示为什么他们应该重返游戏。

上一篇博文已经介绍了Competence能力,而下面将介绍Recall回忆和Progression成长。

支柱二:Recall回忆

回忆指的是用户记住并执行所学内容的能力。这对于用户留存来至关重要,但它却经常在新手设计中遭到忽视。如果没有有效的回忆支持,即便只是短暂的休息后,用户回来后依然会觉得自己像新手一样,并可能会造成沮丧和放弃。

有效的新手指引需要确保用户可以在没有持续指导的情况下继续推进体验。下面介绍了一定的技巧:

  • 专注于简单和直接的输入。避免将输入隐藏太深。建议支持按钮按压作为完成操作的手段,而不是复杂的物理动作。你甚至可以考虑在主机游戏中使用常见的控制映射,以避免教给用户全新的技能。

  • 在原有技能的基础之上建立新的技能。注意你的教学流程,确保相关的概念成对,经常在一起使用。例如,将如何移动,冲刺,跳跃的教程串联在一起,而不是分开。

  • 在教程期间经常测试技能。重复是学习的关键。

实现快速技能练习

记住“三次规则”:要将其内化,大多数用户需要三次成功地重复一个动作。这种重复将有意识的努力转化为直观的理解,并大大提高后来的记忆力。以下是可以考虑的最佳做法:

  • 设计带有即时重试机会的教程交互。

  • 对未执行的控制给出明确的反馈。

  • 允许无限时间的练习将增加用户记住相关操作的可能性。

例如在《Asgard’s Wrath II,》中,玩家使用相同的按钮提示反复练习特殊动作。通过将多个特殊动作绑定到一个按钮并进行多次练习,玩家将更有可能在不熟悉的穿越场景中尝试按下A键。

当用户成功完成一项新技能时,立即奖励他们以强化他们所学的技能。这可以应用于新工具或用户刚刚学会使用的能力,解锁他们旅程的下一步。确保奖励合适,这种即时的积极强化有助于巩固用户的记忆,并为未来的挑战建立信心。

例如在《I Expect you to Die III: Cog In the Machine》中,当玩家完成教程中的任务(如焊接电线)时,他们会立即受到赞扬“Great Job”。这将提供给玩家即时且清晰的反馈,并创造出与解谜的积极联系。

使用有用的提醒

用户通常需要提醒他们以前学过的控制方法,尤其是在更复杂的应用程序中,或者在游戏间歇后。这就是为什么我们建议实现不干扰用户体验的非侵入式屏幕提示。对于用户可能需要长时间休息的应用程序,这种提醒对于保持乐趣至关重要。

在用户忘记键控制的情况下,提供一种重新访问指令的方法非常重要,例如可访问的法典或帮助菜单。这对于需要长时间休息并需要刷新记忆的用户来说尤其有价值。

例如在《Population: One》的武器教程中,玩家将经历重新装填武器的过程,教程会突出显示他们需要交互的环节,并显示完成行动所需的箭头和按钮。在教程结束后,需要重新装填的枪支的交互环节将突出显示,以帮助玩家记住应该如何操作。

支柱三:引入有意义的成长系统

无论长度如何,新手指引都应该包括用户在教程结束后经常体验的交互类型,环境和界面。这可以通过在引入成长系统来实现。这种方法为用户提供了剩余体验的预览,并为他们最初的时间投资提供了令人满意的回报。从初始学习到核心用户体验的过渡对于保持用户兴趣和鼓励用户回头至关重要。

级数系统

如果你正在创造一款提供角色升级或装备升级的游戏,请在玩家体验过程中引入这种系统。即便是像获取不同武器这样简单的进程都应该进行预览,以便用户能够理解并期待相关系统。

在你的教程中引导用户尝试不同的方法可以帮助他们习惯即将遇到的不同场景。这可能意味着为特定的序列或区域提供新武器或角色选择。如果新选项需要明显不同的控件,则提供简短的额外教程,以确保用户感到舒适。

例如,《生化危机4》在教程中介绍了霰弹枪,并预告了游戏的成长系统,并为玩家稍后将获得的武器建立了预期。

建立短期目标

用户需要明确的指标来说明他们的短期和长期目标是什么,以及如何朝着目标取得进展。一种常见的方法包括引入带有丰厚奖励的日常活动,以强化关键行为并引导用户使用重要功能。从容易完成的任务开始,提供丰厚的奖励,然后逐渐增加复杂性。这种“阶梯式”方法将初学者转变为长期用户。

例如在完成《Augmented Empire》教程的最后一部分后,玩家需要为刚刚升级的角色添加新技能。玩家可以选择角色学习的能力,这有助于他们看到升级系统的价值,并且更有可能在之后寻找隐藏的升级点。

确保用户在新手过程中感受到切实的成长十分重要。考虑允许用户升级一次,制作更强大的道具或在教程结束前收集和消费货币。可见的进展指标能够满足玩家的成就感,并鼓励玩家回访。随着时间的推移,这种成长应该是更大成长系统的一个缩影。

预览优质和季节性内容

如果你的应用包含了实时服务元素,请在新手指引阶段结束时引入它们,以表明正在进行的支持。这可能包括引导用户进入当前的季节性内容或应用内商店,以便他们熟悉可用的内容选项。你的目标是提高系统的熟悉度,同时允许用户按照自己的节奏探索。

]]>
Meta详解App Lab应用转Horizon Store的五大挑战 https://news.nweon.com/129183 Wed, 16 Apr 2025 00:54:04 +0000 https://news.nweon.com/129183 5个要求和4点建议]]> 查看引用/信息源请点击:映维网Nweon

5个要求和4点建议

映维网Nweon 2025年04月16日)从App Lab过渡到Horizon Store对开发者来说是一个重大的变化,既提供了新的机遇,又带来了新的挑战。为了帮助开发者适应,Meta日前介绍了你将遇到的5个问题和4点建议:

Meta表示,对于从App Lab过渡到Horizon Store的开发者,面临的最大障碍之一是应对不适用于App Lab的额外要求。

5个主要挑战

  • 创建产品详细信息页面(PDP):对于Horizon Store,你为PDP提供的信息和asset构成了你的虚拟店面。为了创造高质量的体验,你的截图、预告片、描述和其他asset必须符合一定的标准,而它们并不适用于App Lab。所以一系列的开发者都挣扎于提供兼容的元数据和asset。

  • 通过Meta的隐私政策审查:你的隐私条款是你与用户之间信任的基础。所以,你的隐私条款必须满足特定标准。然而,这历来是开发者的痛点,同时是应用提交中最常见的失败之一。

  • 满足Meta的性能标准:优化VR应用程序的性能并不容易。然而,它是为用户提供合适体验的重要组成。满足Meta的性能要求是开发者面临的另一个长期问题。具体来说,应用经常无法达到官方要求的帧率。

  • 构建和维护一款功能性应用:在App Lab,用户习惯于探索依然在开发中的应用。然而,用户访问Horizon Store的期望是,他们选择的任何应用程序都是已完成的完整应用。自过渡以来,开发者一直挣扎于满足新的功能需求。

  • 提供一个兼容的应用网站URL:为你的应用提供一个网站可能看起来非常简单,但网站本身和你提供的URL都必须满足特定标准。

4点建议

  1. 回顾你为PDP提供的内容:大多数过渡性应用的问题都与PDP有关。尤其需要注意的是,确保你提供的应用网站和隐私条款链接都是由你的组织拥有和管理,而不是像Discord这样的第三方。更多信息请参阅这篇博文《Meta发布Quest App产品页优化指南:精准设定期望提升用户留存》​​,以及这个页面​​

  1. 认真阅读Virtual Reality Checks​​。另外,这里​​重点介绍了必须满足VRC。确保你的应用满足所有要求的VRC,从而避免违规或失败。

  1. 重新评估你的隐私条款:Meta会持续审查隐私条款。确保你的隐私条款有效,并确保它包含所有必需的内容,更多信息请访问这里​​

  1. 测试功能和性能标准。试玩你的应用程序,并确保你可以在至少45分钟内完成应用程序,并且没有任何崩溃、漏洞或其他障碍。为了确保应用符合Meta要求的帧率,在提交应用进行审查之前,请使用OVR Metrics Tool或类似的工具进行测试。

]]>
Meta宣布Horizon Worlds、GenAI创作工具扩展到英国、加拿大 https://news.nweon.com/129156 Tue, 15 Apr 2025 01:08:03 +0000 https://news.nweon.com/129156 新增网格生成和纹理生成功能]]> 查看引用/信息源请点击:映维网Nweon

新增网格生成和纹理生成功能

映维网Nweon 2025年04月15日Meta早前启动了一个5000万美元的Horizon创作者基金,同时率先在美国发布了Horizon Worlds桌面编辑器的抢先体验版。

现在这家公司宣布,将把桌面编辑器及其GenAI工具扩展到英国和加拿大,从而帮助你把开发时间从数周缩短到数个小时。

不仅只是这样,GenAI工具套件新增了网格生成和纹理生成功能。网格生成允许创作者能够轻松快速地创建任何主题的3D网格,而纹理生成则允许你修改任何网格的纹理。

解锁你的创造力

Meta表示,在桌面编辑器中使用AI工具可以快速进入创意流状态,帮助你几乎立即地将灵感转化为包含引人入胜音景,环境和游戏机制的内容。

网格生成功能可以通过生成和微调高质量的网格以适应任何风格或主题,从而快速启动世界建筑的发现和原型阶段。下面是它的工作原理:

  • 在桌面编辑器的GenAI工具栏中输入提示符。

  • 从数个生成对象中进行选择,或者改进提示符。

  • 放置和调整你选择的对象,然后进行浏览。

就这么简单。无需代码,你可以迅速实现你的灵感,发布你的世界,并开始产生你的下一个想法。下面这个视频演示了网格生成功能,并可用于快速开发各种3D对象,只需短短六个小时即可创建一个世界。

更多信息请访问这个页面

探索一套快速增长的GenAI工具

除了网格生成之外,你同时可以利用TypeScript生成,声音效果和环境音频生成,以及新推出的纹理生成等GenAI工具。

  • TypeScript生成:利用AI支持的聊天助手,并使用Llama或Specialist模型通过创建游戏逻辑来增加你的世界的深度。你可以选择Llama和Specialist模型来生成代码片段。

  • 声音效果和环境音频生成:通过从示例提示中选择声音,或创建自定义提示和实验生成的声音来创建短音频剪辑或较长的背景音轨。当你制作出完美的声音后,你可以将其作为游戏世界的音频资源或将其下载到你的PC。

  • 纹理生成:今天新推出纹理生成功能与网格生成完美互补,这个工具将允许你快捷地为3D网格对象生成纹理。更多信息请访问这个页面

Meta表示,GenAI正在迅速降低创作者的进入门槛,缩短创作时间,并帮助创作者以前所未有的速度将他们的想法传达给用户。像网格生成这样的工具提供了几乎无限的可能性来创造独特的体验,帮助你闪耀创造力。

当然,这仅仅只是开始,团队接下来将继续优化体验并提供更多的便捷工具。

]]>
Meta分享新手指引最佳实践 Part 1 https://news.nweon.com/129099 Sat, 12 Apr 2025 01:00:04 +0000 https://news.nweon.com/129099 新手指引]]> 查看引用/信息源请点击:映维网Nweon

新手指引

映维网Nweon 2025年04月12日Meta的增长洞察Growth Insights旨在帮助开发者提高用户粘性、留存率和盈利。作为希望从Meta Horizon Store盈利中获得最大收益的开发者,所述博文系列将为你提供有效的策略,帮助你创造可持续的体验,保持用户粘性。

延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 1
延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 2
延伸阅读Meta发布Quest App产品页优化指南:精准设定期望提升用户留存​​

日前,团队介绍了如何进行新手指引:

在本文中,我们将深入探讨创建有效新手指引体验的策略。你将从Meta Horizon Store的成功游戏中找到实用的方法、需要避免的常见陷阱、以及数据驱动的见解。

我们同时会讨论成功的新手指引的三大支柱。本文旨在为正筹划新应用发行的开发者提供支持,但所介绍的技巧同时可以用于积极支持已发行游戏。

理解有效的新手指引

新手用户体验New User Experience (NUX)/First Time User Experience(FTUE)包括新用户遇到的所有内容,从有效的营销、演示和教程,到介绍主要系统,并在头几周指导用户。

考虑到VR游戏的体验时间往往比普通游戏更短,更不频繁,你应该考虑到用户的上手时间可能比预期要长,并准备好在整个过程中为他们提供支持。

新手用户体验从预下载开始,一直持续到用户掌握了足够的技能,能够在没有帮助的情况下成功上手你的应用。

正确上手可能非常困难,或需要多次迭代,但这种努力可以在日后带来巨大的回报,并提高用户粘性和应用内购。

第一天投入的时间与长期留存率之间存在直接关联(见下图)。例如,在Meta Horizon Store的动作类型游戏中,第一天玩超过30分钟的玩家回头游戏的可能性是不到5分钟玩家的3倍。所以,确保新人用户的前期体验非常重要。

创建有效的新手体验涉及三个基本支柱:

  • Competence能力:玩家通过学习和实践掌握游戏机制、操作技巧或策略的能力,体现为对游戏控制的自信和熟练度。这包括学习和执行与应用系统的理想交互相关的控制的能力。应用教程的大部分内容都是用于引导用户掌握技能。

  • Recall回忆:玩家对游戏内容(如规则、剧情、地图布局等)的记忆能力,或游戏设计中对玩家记忆需求的强度。这对于沉浸式体验来说尤其重要,因为界面惯例依然在不断演变。如果没有合适的回忆支持,用户可能需要在每个会话中重新学习控制。

  • Progression成长:这是教程和核心用户体验之间的桥梁,主要指玩家在游戏中的长期发展轨迹,通常通过角色能力提升、资源积累或剧情推进体现。升级系统、战斗通道、锻造系统或其他显示成长的方式都有助于用户获得技能,并向他们展示为什么他们应该重返游戏。

1. 第一支柱:培养能力

用户能力是指用户学习和执行应用交互的能力,比如控制、移动和UI导航。这段时间通常称为教程。

能力的作用:

  • 提供成就感(如击败强敌、完成高难度操作)。

  • 增强沉浸感(玩家感觉自己在进步)。

  • 支撑挑战性(能力提升后,玩家能应对更高难度内容)。

教程帮助用户对控制和界面感到自信,令他们更有可能回到你的体验这种。能力和留存率之间存在直接关系,这意味着如果你令用户觉得自己有能力,他们就更有可能留在你的游戏之中。VR和MR体验可能需要详细的教程来教导用户如何与你的体验交互,因为他们更有可能没有之前的游戏经验可供借鉴。

现有游戏和应用中有大量的最佳实践可供借鉴。你会发现不同之处在于节奏、方法、基调和内容的细节,而这都是你需要反复完善的项目。

以下建议可以帮助你尽早开始制定新手指引框架,包括你的教程:

  • 从舒适的环境开始,考虑站着和坐着的游戏风格。

  • 循序渐进地教授技能,这样用户就可以自然地积累知识。确保对尚未掌握沉浸式控制的新用户提供支持。

  • 适应用户的学习风格,培养安全的练习环境,以便用户可以重复技能,直到他们有信心继续前进。

  • 在考虑叙述框架时,确保用户保留代入感,最好将叙述时刻整合到教程中。

1.1 实施有效的舒适设置

沉浸式体验提出了独特的挑战,需要周到的舒适设置。提供合适的选项可以帮助防止晕动症和疲劳感,而这两个因素可能会导致用户完全放弃你的应用。

在核心用户体验开始之前,引导用户完成舒适设置。像《Asgard’s Wrath II》,《生化危机4》和《Metal Hellsinger VR》等主流游戏都是在用户访问保存文件或开始游戏之前设置舒适设置。这种方法确保用户可以从一开始就定制他们的体验,以获得最大的舒适度。

在设计舒适选项时,请考虑以下最佳做法:

  • 展示每个设置的可视化演示。

  • 使用新手能够理解的简单语言,避免使用新手可能难以理解的复杂词汇。

  • 解释每个设置的目的

  • 在菜单中提供舒适设置组,以便用户可以一次更新它们。

如上图所示,《Metal Hellsinger VR》使用直截了当的语言和视觉演示来解释舒适设置,帮助用户理解他们的选择。

1.2 站式和坐式游戏设计

Meta估计,有40%的热门应用用户在第一个月里至少坐着玩10分钟。用户喜欢在坐式和站式之间选择的灵活性,许多人在一次会话中经常在模式之间切换。这种转变通常发生在用户在长时间的游戏过程中感到疲劳,或者更深入地投入到不需要身体运动的用户体验中。

为了鼓励留存,提供同时愉快的坐式和站式体验,并为想要改变选项的用户提供快速重新校准选项。这种灵活性极大地提高了用户的舒适度,特别是在更长时间的会话中,而且这允许你支持最大范围的用户和游戏环境,从而增加你的潜在用户规模。

当然,有的应用主要是为站式或坐式游戏而设计。如果是这种情况,请确保在期望设置期间已将这个首选项传达给用户。对站式和坐式玩法的全面支持是应用的一大优势。

《Asgard’s Wrath II》会在游戏检测到站姿和坐姿之间的转换时进行重新校准。

1.3 循序渐进地教授技能

一个常见的错误是在用户面前放置所有控件的图像,并期望玩家立即学习它们。更好的策略是一次教一种用户技能。列出用户需要了解的所有内容,找出哪些是享受体验的必要项。我们建议将你的清单分成:

  • 用户在最初几分钟内绝对需要掌握的基本技能。

  • 次要元素可以等到新手指引之后。

避免一次向用户提供过多的信息。每次只教授一种技能,并给用户足够的练习空间,在增加复杂性之前建立信心。

《蝙蝠侠:阿卡姆之影》优先教授战斗机制,并在游戏后期引入升级和技能树。

如果你正在打造一个包含多个系统的体验,请在整个过程中逐步引入不同的元素。举个例子,一个精心设计的制造教程可能会遵循这个过程:

  • 第一:提供所有材料并专注于教授制造过程。

  • 第二:引导用户收集特定的材料。

  • 最后:允许用户自由地使用可用资源进行实验。

1.4 支持新用户

永远不要假设所有用户都熟悉沉浸式体验。促销和网络效应不断将新用户引入Meta Horizon生态系统,所以最好在欢迎新用户的同时,帮助有经验的用户快速进步。

你可以通过以下方式来支持新用户:

  • 提供控制器图示和按钮提示。

  • 为需要额外练习的玩家制作可重玩的教程。

  • 全面讲授移动机制、对象交互等基本动作。

  • 当用户成功完成任务时提供清晰的反馈。

如上图所示,《生化危机4》提供了清晰的按钮指示。

1.5 教学交互式控制

带有控制器的沉浸式体验通常使用两种主要交互方法:

  • 直接交互:用户通过扳机键或把手伸出来抓住物体。

  • 间接交互:用户使用Meta Quest Touch Plus控制器的一个面部按钮,用光标(光线投射)选择不同的对象。

对于没有沉浸式体验的用户来说,直接交互是一种新体验,需要在设计中多加注意。以下是如何令他们的早期经历更愉快的方法:

  • 考虑添加一个切换选项,以减少身体疲劳。

  • 通过实现不需要弯腰的拾取系统,帮助用户轻松取回掉落的物品。

  • 确保掉落的物品保持可见和容易定位,因为物品可能会从原来的位置滚走。

由于应用程序使用的交互模型各不相同,建议确保用户尽早练习对象交互。

1.6 适应用户的学习风格

设计教程时考虑不同的学习偏好和经验水平。有的用户希望快速完成,而其他用户则喜欢有条不紊的方法。这两种偏好都是有效的,你的新手指引应该适应不同的风格,同时确保所有用户在继续前进之前能够理解核心机制。

适应用户的常见策略包括:

  • 允许用户跳过对话,过场动画或整个教程步骤。

  • 允许用户从菜单中回放教程。

  • 留出教程空间供用户随时访问。

  • 提供上下文教程,只在用户使用相关技能时出现。

1.7 结合不同的教学方法

用户在空间环境中吸收信息的方式与在传统数字设备不同。仅仅依靠一种沟通方法可能会导致问题,这就是为什么建议采用多种方法:

  • 视觉演示:在教授手势控制时,亮出来而不是说出来

  • 包括音频指导:添加带字幕的画外音。

  • 提供视觉参考:将图表自然地放置在环境中。

  • 提供触觉反馈:使用控制器振动来加强正确的动作。

当文本是必要项时,把它放在用户可以容易注意到它的位置,而不是在周边视觉。将重要信息锚定在容易看到的位置,并将其自然地融入环境。

1.8 创造安全的练习环境

如果你的游戏体验以核心机制为中心(如近战或远程战斗),请创造一个安全、无后果的环境,以便用户在没有压力的情况下练习。确保这个环节可选择性地重复,这样用户就可以在面对实际挑战之前按照自己的节奏建立信心。

例如,如果你的游戏要求玩家瞄准并射击武器,请首先提供一个没有其他玩家的空间,允许他们在继续前进之前可以无限地练习瞄准和射击。在高技能游戏中,用户通常需要在难度上升之前花时间练习,而单用户环境允许他们在不受干扰的情况下培养技能。

1.9 平衡叙述与互动

由于续航和身体舒适度等因素,沉浸式体验的游戏时间通常比传统游戏更短。由于晕动症是一个关键的考虑因素,请在新手引导期间避免冗长的非交互式序列。当在教程中包含叙述元素时,请考虑:

  • 保持故事序列简短且吸引人。

  • 确保所有叙述都可以跳过。

  • 优先考虑允许用户快速进入交互式玩法。

  • 在主动玩法中融入故事元素。

  • 保持用户积极参与,而不是显示非交互式过场动画。

  • 确保用户拥有完全的移动控制。

在《Asgard’s Wrath II》中,即便是在故事序列中,用户依然是积极的参与者,这样可以在推进叙述的同时保持用户粘性。

接下来是什么?

上面介绍了三个支柱中的第一个:通过直观和易于访问的教程建立用户能力,而后续团队将继续介绍其他两个支柱。

]]>
Meta发布Quest App产品页优化指南:精准设定期望提升用户留存​​ https://news.nweon.com/128992 Tue, 08 Apr 2025 00:26:06 +0000 https://news.nweon.com/128992 如何在产品详细信息页面中设置有效的期望值]]> 查看引用/信息源请点击:映维网Nweon

如何在产品详细信息页面中设置有效的期望值

映维网Nweon 2025年04月08日Meta的增长洞察Growth Insights旨在帮助开发者提高用户粘性、留存率和盈利。作为希望从Meta Horizon Store盈利中获得最大收益的开发者,所述博文系列将为你提供有效的策略,帮助你创造可持续的体验,保持用户粘性。

延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 1
延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 2

日前,团队介绍了如何在产品详细信息页面中设置有效的期望值:

理解新用户漏斗

尽管我们将在接下来的文章中深入探讨新用户体验或首次用户体验,但重要的是分解相关过程。这种关系通常描绘成一个漏斗,获客位于最上端。下图显示了每个阶段的用户数量。你可以看到体积是如何随着每一层的传递而减小。

有多个最佳实践可以增加漏斗最上方的大小。但我们今天将重点讨论如何在成功设定后续步骤的同时做到这一点。获客基本是与下游参数联系在一起,牢记这一点可以帮助你避免“漏水”,增加你可以保留的用户数量,并获得潜在收益。

为了确保用户对他们的购买感到满意,你的产品详细信息页面PDP应该诚实地传达你对应用的期望。这种期望设置通过吸引合适的用户来支持下游留存率和盈利。

如果你曾经做过产品营销,这个最佳实践可能看起来违反直觉,因为在基本层面上,营销是关于最大限度地增加购买或用户人数;然而,提高你的评论分数并创造一个充满激情的粉丝基础将有助于提高你的曝光度。真实的营销对于获得高用户评价和减少初始流失至关重要。你在Meta Horizon Store的PDP、广告和推荐链接都展示了应用的主要卖点和功能。

使用PDP

有多种途径可以最大化你的获客渠道,你的PDP可能是潜在用户与你的应用或开发工作室的第一体验。所以,当你将第一印象转化为安装量,将安装量转化为留存用户时,这种第一印象会对选择产生巨大影响。作为用户漏斗的最上方,这一阶段是用户应用之旅的开始,而印象和安装之间的空间可能是你失去大多数潜在用户的地方。

精心策划你的PDP能够最大化用户获取和留存率。作为基准策略,你应该始终以能够吸引目标用户的方式准确呈现游戏的最佳体验。为了实现这一目标,重点关注以下环节:

  • 仔细策划营销asset,包括关键的美术,截图,描述和名称。

  • 选择正确的类型和关键词来设定期望值。

  • 在用户启动应用的最初时刻提供你的营销材料。

更多信息请访问这个页面

优化营销asset

美术是你设定期望值最有力的工具之一。大多数用户只会根据视觉画面进行判断,而不会阅读你的描述。所以,你的关键美术和预告片许哟啊即时传达用户在应用中的体验。

  • 突出核心游戏模式,显示用户的游戏时光。

  • 推广季节性更新,表明你对新内容的承诺。

  • 展示应用基调或美学方面的特色。

  • 包括混合现实预告片,显示用户与你的内容互动。

你使用的每一项asset都应该保持色调一致,并经过精心挑选,以最大限度地发挥影响力。记住,第一印象非常重要。

如上图所示,来自《Dead and Buried II: Reloaded》的美术截图提供了多个卖点,包括突出了用户可玩的奇特武器,设定了游戏过程的基调(战斗vs类人),并展示了游戏的美学。

有效使用类型和标签

当你向Meta Horizon Store提交应用时,你需要为应用选择至少一个类别和一个主要类型,但如果希望更加具体,你可以选择最多三个类型。

相关选择十分重要;用户会根据所选择的类型标签来设定对应用内容的期望。例如,如果你将游戏标记为“射击游戏”,他们便会期待专注于动作的游戏玩法。如果将其标记为“RPG”,他们便会期待故事深度和角色发展。

相关期望会推动应用中的不同行为,并影响用户粘性。例如,动作游戏的平均D0时间比体育游戏高50%,而体育游戏的用户期望更符合现实物理动作的控制方案。一般来说,人们期望动作游戏提供复杂的战斗控制。

选择正确的游戏类型能够希望寻找特定体验的用户发现你的游戏。如果你满足了他们的动机和基于类型的期望,你将更有可能赢得一个长期用户。更多信息请访问这个页面

丰富你的PDP

PDP可能是用户对应用的第一印象,但它通常只是下载前的最后一个关卡。如果用户没有完全被你的关键美术所吸引,你在PDP提供的信息就是你转化依然在观望的消费者的机会。这就是为什么策略性地使用PDP去突出与视觉营销相辅相成的功能,清楚地传达体验的独特价值主张并设定基调非常重要。

Meta为开发者提供了一系列独特的功能,可以帮助用户在更深层次理解你的体验。例如,利用360度预览图像不仅可以帮助你的应用脱颖而出,而且可以将印象转化为下载。

注意你的Markdown Options同样非常重要。有时候,丰富的文本和表情符号可以在很大程度上实现引人注目的PDP。更多信息请访问这个页面

在《Dead and Buried II: Reloaded》的PDP中,开发者使用了“以超自然的西方世界为背景的快节奏多人射击游戏”的描述来快速传达玩家的期望。理想情况下,这部分内容会强化用户已通过图像传达的信息,但对于想要知道接下来会发生什么的玩家来说,这是一个简洁的补充说明。

新鲜的内容传达出你的体验是充满活力的,不断改进的,值得用户花费时间和金钱,所以不要忘记经常测试和刷新你的PDP。季节性更新应该促使关键的美术或标志发生变化,而包含新功能的重大更新可能足以让你重新考虑你的预告片。一旦你的asset准备妥当,它们就提供了测试的基础。你可以通过Developer Dashboard并轻松地利用A/B Test来测试更新后的asset。

迅速兑现承诺

一旦你有效地设定了新用户的期望,现在便是时候去满足他们。这是市场营销和游戏最终结合的地方。从用户启动应用的那一刻起,你通过PDP设定的类型、基调和美学原则就应该一目了然。

对于特定游戏,如迷你高尔夫体验,用户拥有的先验知识可以帮助他们建立期望(即“这是一款休闲版的高尔夫”)和早期目标(即“我要把高尔夫球送进洞中”);然而,对于大多数游戏类型而言,这一概念并不明显。所以,你可以利用加载屏幕和教程等开场时刻,教会用户如何玩游戏,以及建立用户的期望和目标。

  • 在加载画面中解释基本概念。例如在竞技性多人游戏中,你可以在用户加载时将目标描述为“成为最后一名玩家”或“成为第一个获得50分的玩家”。

  • 亮出来,而不是说出来。

研究显示,付费游戏的首次会话通常持续28分钟,而免费游戏则持续18分钟。这意味着你只有有限的时间来吸引用户的兴趣。重要的是,用户之所以喜欢你的应用,是因为他们选择了你的应用,如果你想将他们变成长期用户,你的工作就是给他们明确的理由继续留在这里。

如果你能识别出令应用有趣和吸引人的元素,把它们作为你的入门。例如,在社交VR中,魔力通常来自于临场和共在,所以,即便只是像向另一个用户挥手,确保新用户在开始的瞬间就能感受到与他人的联系非常重要。在射击游戏中,用户可能想要马上试用武器,所以在这种情况下,你可以从教授射击机制开始,而不是展示用户可以解锁的每一个小工具。

]]>
开发实战:使用PCA API访问Meta Quest的摄像头 https://news.nweon.com/128990 Tue, 08 Apr 2025 00:26:04 +0000 https://news.nweon.com/128990 访问Meta Quest摄像头]]> 查看引用/信息源请点击:skarredghost

访问Meta Quest摄像头

映维网Nweon 2025年04月08日)开发者现在已经可以访问Meta Quest头显的摄像头,但具体的操作是怎样的呢。下面这篇来自Skarredghost的博文将逐步解释如何使用Meta SDK的Passthrough Camera Access在Unity 6创建一个项目:

如果你是Unity或Meta SDK的初学者,你可以查看YouTube视频。但如果你对Unity中的XR开发有一定的认知,并且你喜欢文本而非视频,请继续阅读下文。

在我们开始之前……

用于摄像头访问的SDK属于实验性,在接下来的时间里可能会出现非常大的变化。

先决条件

我们先看看摄像头访问的先决条件是什么:

  • 必须是Meta Quest 3或Meta Quest 3S。暂时不支持其他头显

  • 设备必须至少是v74。

  • 必须有最新版本的Unity。Meta建议2022.3.58f1或6000.0.38f1。不过,稍微不同的版本应该依然可行。本教程使用了6000.0.34f1。

请注意,在撰写本文时,所述功能标记为实验性,所以你不能在Horizon Store发布任何实现它的应用功能。按照过往经验,数个月之后就会解禁。

Meta Quest 3摄像头访问的基础

Quest 3的摄像头访问使用经典的Android工具来访问摄像头框架。特别地,它是以Camera2类作为基础。

在Unity中,几乎没有人直接使用Camera2类,因为它需要JNI调用,而这总是非常痛苦。Unity开发者通常使用WebCamTexture类,它能够将摄像头帧捕获到动态Unity纹理中。对于全新的透视API,可以完全遵循这个过程并获得设备左或右前置摄像头帧的WebCamTexture。在底层,WebCamTexture查询Camera2。

一旦有了WebCamTexture,你就可以做任何事情:你可以在屏幕显示纹理,或者抓取帧像素并分析它们(并可能将它们发送给AI算法)。记住,每次你从纹理中抓取像素并将它们移动到你的“CPU”内存进行分析时,你都会引入延迟,因为将数据从GPU移动到CPU是一个有点慢的操作。

Meta的这种方法有一个优势:与Android手机使用的方法一样,谷歌同样表示,Android XR使用了同样的方法。所以,创建跨平台应用将变得相当容易。

这种方法的另一个优势是给予用户控制权:在Android访问摄像头总是需要用户的许可,而这会发生在Quest身上。Meta已经创建了一个特殊的权限,而你必须请求用户提供摄像头帧访问权限。用户必须信任你,否则你将无法获得摄像头帧。

Passthrough Camera API示例

开始使用Passthrough Camera API的建议方法,包括官方建议,都是从Meta提供的官方示例开始。Meta建议从这个名为Unity-PassthroughCameraApiSamples的样本项目开始。

所述示例项目是开始学习摄像头访问的好方法。你可以从现有的代码中学习,或可以修改调整,甚至可以将其中的代码复制粘贴到自己的项目中,以加快开发速度。

(顺便说一句,除了官方的示例,另一个示例库提供了一系列有趣的例子。当然,你应该先看完官方示例后再深入研究。

需要注意的是,在撰写博文的时候,有一个小问题阻碍了这个项目在Unity 6顺利运行。就理论而言,项目应该开箱即用,但实际上并不是。所以下面将分享如何获得、修复和运行这个项目。

获取和构建示例的步骤如下:

  • 克隆你喜欢的存储库的示例

  • 打开Unity Hub

  • 选择Add -> Project From Disk并选择你刚刚克隆项目的文件夹。项目应该显示为Unity 2022打开。点击项目的Unity版本标签,并在即将到来的窗口中选择你的Unity 6版本和Android build平台。这十分必要,因为本教程是关于Unity 6。

  • 确认你想要的版本

  • 打开项目

  • 修复Activity名称:点击编辑器窗口上方的“Meta XR Tools”下拉列表,并从下拉列表中选择Project Setup Tool

  • 在下面的项目设置工具窗口中,你应该会看到一个错误,类似于“Always specify single GameActivity…”。单击与其关联的Fix按钮,错误应该会消失

  • 如果有其他错误,修复它们

  • 关闭项目设置工具窗口

  • 修复Android Manifest文件:在菜单中选择“Meta -> Tools -> Update AndroidManifest.xml”

  • 如果有弹出窗口要求确认是否覆盖文件或类似,请确认操作

  • 修复摄像头纹理的初始化时间。Camera SDK应该在播放WebCamTexture之前给系统更多的初始化时间

  • 打开脚本WebCamTextureManager.cs,位置是\Assets\ passthroughcameraapissamples \PassthroughCamera\Scripts\

  • 找到OnEnable函数并将开始摄像头初始化的最后几行改成为初始化添加两帧延迟的协程。一开始的代码是这样:

private void OnEnable()

{

PCD.DebugMessage(LogType.Log, $"PCA: {nameof(OnEnable)}() was called");

if (!PassthroughCameraUtils.IsSupported)

{

PCD.DebugMessage(LogType.Log, "PCA: Passthrough Camera functionality is not supported by the current device." +

$" Disabling {nameof(WebCamTextureManager)} object");

enabled = false;

return;

}

m_hasPermission = PassthroughCameraPermissions.HasCameraPermission == true;

if (!m_hasPermission)

{

PCD.DebugMessage(LogType.Error,

$"PCA: Passthrough Camera requires permission(s) {string.Join(" and ", PassthroughCameraPermissions.CameraPermissions)}. Waiting for them to be granted...");

return;

}

PCD.DebugMessage(LogType.Log, "PCA: All permissions have been granted");

_ = StartCoroutine(InitializeWebCamTexture());

}

private void OnDisable()

{

PCD.DebugMessage(LogType.Log, $"PCA: {nameof(OnDisable)}() was called");

StopCoroutine(InitializeWebCamTexture());

if (WebCamTexture != null)

{

WebCamTexture.Stop();

Destroy(WebCamTexture);

WebCamTexture = null;

}

}

你需要改成这样(注意从第19行开始的与OnEnable相关的修改):

private void OnEnable()

{

PCD.DebugMessage(LogType.Log, $"PCA: {nameof(OnEnable)}() was called");

if (!PassthroughCameraUtils.IsSupported)

{

PCD.DebugMessage(LogType.Log, "PCA: Passthrough Camera functionality is not supported by the current device." +

$" Disabling {nameof(WebCamTextureManager)} object");

enabled = false;

return;

}

m_hasPermission = PassthroughCameraPermissions.HasCameraPermission == true;

if (!m_hasPermission)

{

PCD.DebugMessage(LogType.Error,

$"PCA: Passthrough Camera requires permission(s) {string.Join(" and ", PassthroughCameraPermissions.CameraPermissions)}. Waiting for them to be granted...");

return;

}

else

{

_ = StartCoroutine(WaitAndInitialize());

}

}

private IEnumerator WaitAndInitialize()

{

yield return null;

yield return null;

PCD.DebugMessage(LogType.Log, "PCA: All permissions have been granted");

_ = StartCoroutine(InitializeWebCamTexture());

}

private void OnDisable()

{

PCD.DebugMessage(LogType.Log, $"PCA: {nameof(OnDisable)}() was called");

StopCoroutine(InitializeWebCamTexture());

if (WebCamTexture != null)

{

WebCamTexture.Stop();

Destroy(WebCamTexture);

WebCamTexture = null;

}

}

(有一种替代方法,同一文件的第109行,那里已经有一个yield return null,让你在播放WebCamTexture之前等待一帧,添加更多yield return null函数,令系统等待更长时间。那边可以选择这两种方法中的任何一种,两者都有效)

  • 保存文件。由于这个修改,当你多次启动应用程序时,它不会崩溃。你只是在初始化中添加了非常短的延迟,没有人会注意到

  • 现在你可以

    • 将你的Quest 3接到电脑

    • 选择File -> Build And Run

    • 选择保存Build的位置

    • 等待结束

现在你可以戴上头显并进行体验。

修改示例

强烈建议你尝试一下示例,研究不同的场景。然后,按照下面的说明创建自己的新场景。一般来说,请阅读repo的README文件,阅读Meta关于摄像头访问的官方文档,并尝试相关示例。

从零开始一个摄像头访问项目

我喜欢Meta提供的开箱即用示例。但有时候你真的想从零开始一个项目。这时候,你不能从提供的示例项目开始,而是要自己在项目中实现PCA。下面将介绍如何开始:

  • 打开Unity Hub

  • 创建一个新的Unity项目,选择Unity 6作为版本,并指定项目类型为“Universal 3D Core”(非必须,但通常当你为Quest开发内容时,你总是使用URP)

  • 等待Unity创建并打开新项目

  • 切换到Android Build平台。立即执行,以避免稍后重新导入大量内容。如果不清楚,你可以选择File -> Build Profiles,然后在弹出的窗口中选择Android选项卡,点击“切换平台”按钮

  • 现在项目已经在正确的平台,如果愿意,你可以更改Project Settings,指定正确的名称,并选择Android包名称。这一步完全属于可选步骤

  • (从Windows菜单)打开Unity Package Manager

  • 安装MRUK包:点击包管理器左上角的“+”按钮,选择“Install package by name…”,并指定名称为“com.meta.xr.mrutilitykit”。单击“Install”确认。安装应该在几秒钟后开始

  • 如果Unity提示重新启动编辑器,重新启动

  • 关闭包管理器和任何打开的弹出窗口

  • 重新打开项目设置(编辑->项目设置…)

  • 在项目设置窗口中,单击左侧“XR插件管理”选项卡,并选择右侧XR Plug-in management按钮

  • 当安装了XR Plug-in management后,窗口的右侧将填充。进入与PC相关的选项卡,选择OpenXR插件。如果一个弹出窗口要求你安装什么Meta XR功能或类似,点击“Yes”。

  • 如果已经移动到与Project Validation相关的另一个选项卡,请移回XR Plug-in management的前一个选项卡。然后转到Android相关的子选项卡,选择OpenXR插件。

  • 现在我们必须添加Meta Quest控制器的交互配置文件。在左侧选择选项卡XR Plug-in management-> OpenXR。你应该看到窗口右侧显示“Enabled Interaction Profiles”。点击旁边的“+”按钮,添加“Meta Quest Touch Plus Controller Profile”。然后对“Meta Quest Touch Pro Controller Profile”执行同样的操作。PC和Android均需重复这一操作。PC不是特别有用,但如果你想在编辑器中进行一定的测试,你可以尝试一番。

  • 在左侧选择选项卡XR Plug-in management->项目验证。如果你是有经验的用户,请评估如何处理各种建议条目。对于这个示例,我们简单行事,在PC和Android选项卡都点击Fix All。

  • 现在可以关闭“项目设置”窗口

  • 你应该在项目中打开SampleScene,然后执行下面的操作:

    • 删除场景中的所有内容

    • 在菜单中,转到Meta -> Tools -> Building Blocks

    • 将Camera Rig、Passthrough和Controller Tracking拖到场景中。这样我们就可以有一个带透视和可见控制器的场景

    • 关闭Building Blocks

  • 修复Meta XR设置的警告

    • 单击编辑器上方的Meta XR Tools下拉列表,并从下拉列表中选择Project Setup Tool

    • 在下面的Project Setup Tool窗口中,你应该看到一定的警告和错误

    • 最后一个应该讨论场景的特定权限(“当在项目中使用场景时,它需要执行……”)。点击它旁边的三个点,然后选择“忽略”。它应该消失。之所以忽略,是因为我们不希望Meta自动请求场景权限,因为Camera Access SDK将在脚本之一自行执行

    • 现在你可以点击“Apply All”来修复所有剩下的问题

    • 关闭项目设置工具窗口

  • 从示例项目中导入Camera Access的基础设施。注意,我们可以自己编写,但既然Meta提供了现成的工具,为什么要麻烦呢?

    • 克隆你喜欢的存储库(如果没有在前一个教程中执行)

    • 将示例项目中的\Assets\PassthroughCameraApiSamples\PassthroughCamera\文件夹复制到新项目的Assets文件夹中。如果愿意,你可以从Windows文件管理器拖拽到Unity项目窗口

    • 如果有必要,应用与上文描述的WebCamTextureManager.cs文件相关修复(如果Meta修复了错误,或者如果你已经在遵循上面的教程修复,则现在没有必要)

  • 完成场景:

    • 将Assets/PassthroughCamera/Prefabs/WebCamTextureManagerPrefab.拖到场景中。这个预制件包含WebCamTextureManager脚本,它将管理摄像头访问并提供WebCamTexture和关于摄像头的元数据。请注意,这个预制件中同时有一个权限管理器,它将询问用户使用摄像头和使用场景数据的权限。如果需要,可以使用这个脚本请求其他运行时权限

    • 在场景中创建一个新的cube

    • 在项目中创建一个新脚本,将其命名为WebcamTextureAssigner,并粘贴以下代码

    • 将WebcamTextureAssigner脚本分配给cube

using PassthroughCameraSamples;

using System.Collections;

using UnityEngine;

///

/// Assigns the of the Quest camera

/// to the component of the current game object.

///

[RequireComponent(typeof(Renderer))]

public class WebcamTextureAssigner : MonoBehaviour

{

///

/// Start coroutine

///

///

IEnumerator Start()

{

//references that will be filled by the coroutine

WebCamTextureManager webCamTextureManager = null;

WebCamTexture webCamTexture = null;

//wait until the WebCamTextureManager is found and is ready to provide a texture

do

{

yield return null;

//if the WebCamTextureManager is not found yet, find it

if (webCamTextureManager == null)

{

webCamTextureManager = FindFirstObjectByType();

}

//else, if we have it, try to get the texture of the camera of the headset

else

{

webCamTexture = webCamTextureManager.WebCamTexture;

}

} while (webCamTexture == null);

//here we have the texture. Assign it to the main texture of the main material of the renderer

GetComponent().material.mainTexture = webCamTexture;

}

}

  • 我们现在必须修复Android Manifest请求的所有必需权限:

    • 在菜单中选择“Meta -> Tools -> Create store-compatible AndroidManifest.xml”。这将用需要所有正确权限的Manifest替换当前的Manifest

    • 如果要求确认更换Manifest,请确认

    • 现在打开manifest文件,它位于Assets/Plugins/Android/AndroidManifest.xml

    • 在文件末尾有各种标签的地方,添加:

    • 这将确保提示用户是否允许访问摄像头

  • 保存场景,保存项目

  • 通过USB接到PC

  • 在设备运行(File -> Build And Run)

  • 如果提示Input Handling设置为“both”,选择Yes继续(在本示例中,我们不关心,但在Production环境中,你应该使用新的输入系统)

  • 享受camera-textured cube。你会看到cube的颜色有点暗淡,这是因为我们从场景中删除了照明。我们使用默认的照明材质。将材质改为unlit应该可以解决这个问题

从WebcamTexture获取数据

上面介绍了如何使用Meta提供的预制工具获得WebcamTexture,而你同时应该学习如何获得实际的像素数据。要做到这一点,你可以使用一些众所周知的方法。一个是使用GetPixels,另一个是使用AsynGPUReadback。第一个是阻塞调用,但以一种简单的方式直接提供想要的所有像素数据;第二个不会,但使用起来有点复杂(它在调用中为你提供数据)。你可以看看相关的文档并决定你想要使用哪一个:

请记住,将数据从GPU(纹理所在)移动到CPU(可以读取像素数据的地方)是一个非常缓慢和成本昂贵的操作。所以只在必要的时候执行。

]]>
Meta分享开发工具更新:追踪键盘,微手势和WebXR PWA https://news.nweon.com/128696 Fri, 28 Mar 2025 01:12:04 +0000 https://news.nweon.com/128696 一系列旨在支持开发者构建3D、2D和Web体验的工具]]> 查看引用/信息源请点击:映维网Nweon

一系列旨在支持开发者构建3D、2D和Web体验的工具

映维网Nweon 2025年03月28日Meta日前分享了一系列旨在支持开发者构建3D、2D和Web体验的重点更新。

通过升级的Keyboard Tracker来支持任何键盘

Quest 3和Quest 3S的键盘支持刚刚迎来了一次重大升级。Horizon OS现在可以追踪视图内任何键盘的位置,所以用户可以通过动态Passthrough窗口看到自己的双手和物理键盘。

新版本同时缓解了输入时的无意按压。总之,相关升级可以令输入更加直观,减少了摩擦,增强各种体验的沉浸感。更多信息请访问这个文档

简单直观的手势和控制器运动

v74提供了扩展的控制器支持和一套新的微手势,包括点击和拇指滑动。全新的微手势与Quest 2, Quest Pro, Quest 3和Quest 3S兼容,并且可以应用到Unity和Native。微手势可帮助提升用户体验,并且通过减少重复性动作来降低疲劳感。

例如,微手势已经支持基于手指操作的传送交互。微手势可以成为VR移动的强大工具,只需用拇指轻压食指即可实现传送,并通过向左或向右滑动来转向。像这样简单的手势与2D界面熟悉的交互紧密结合,所以易于学习,易于记忆,并且对用户而言非常舒服。

另外,Meta已经扩展了控制器支持。现在,你可以利用VR特定的功能,如动态用户高度等等。

更多信息请访问这个文档

探索Meta Spatial SDK和空间编辑器

Meta是在2024年发布了Meta Spatial SDK和Meta Spatial Editor,允许开发者将现有的应用空间化,并为Meta Horizon OS快速构建2D体验。现在,升级版本改善了面板的视觉动态和交互性,以及提供了用于空间编辑器的组件。

例如,Refined Cylinder Panels经过了全面的改进,提高了性能和多功能性。另外,团队为圆柱体面板增加了透明度,以提高视觉清晰度和设计的灵活性。这个更新为你的设计提供了更多的创意自由,允许你制作令人惊叹的沉浸式环境。

更多信息请访问这个文档

同时,Spatial Editor 2.0现在包含了一个新的组件系统,允许你使用XML定义和管理组件,从而增强了灵活性和管理的便利性。团队同时在空间编辑器的组件列表中添加了一个新按钮,允许你同步来自XML组件的最新变化。

新的组件XML提供了一种更简单的方式来定义组件,并通过基于你所编写的XML自动生成性能最佳的Kotline Component代码来提高效率。

最后,组件XML消除了同步组件更新时重新启动工具的需要,显著改善了Spatial Editor的工作流程。现在,Spatial Editor可以理解组件属性的默认值,并允许你在工具运行时刷新组件更新。

更多信息请访问Spatial SDK Components文档和。

介绍WebXR PWA

v72推出了WebXR PWA支持,为Web开发人员提供了一种强大的新方法来创建和货币化沉浸式VR体验。现在,任何人都可以直接从Meta Horizon Store中发现和下载PWA,并立即在自己的库中访问它们。

对于WebXR PWA,你可以直接从Web提供类似本机的沉浸式体验,同时确保与Meta Horizon OS无缝集成。这项新功能允许应用程序在启动后立即跳转到沉浸模式,从而消除了对2D登陆页面的需求。另外,开发者现在同时可以通过应用内购实现货币化,并支持订阅功能。

在将你的WebXR体验打包为PWA之前,Meta建议在浏览器中进行测试,以确定任何兼容性或性能问题。浏览器入门指南提供了必要的信息,包括用户代理字符串和支持的内容大小。另外,您可以将Chrome开发者工具接到Quest设备以进行调试。为了确保你的PWA支持Meta Horizon Store,请使用Meta forked Bubblewrap库将你的网站打包成APK文件。

更多信息请访问这个文档

使用@IWER/DevUI v1.0和IWE v2.0提升WebXR开发者体验

自去年首次亮相以来,@IWER/DevUI v1.0已经发生了重大变化,而现在它提供了一套旨在增强WebXR开发者体验的功能:

手部追踪仿真支持:在运行时无缝切换控制器和手部输入。仿真支持多种内置姿势,并允许开发者提供任意数量的自定义姿势。

  • 轻松连接/断开输入源:随时轻松断开和重新连接单个控制器或手部输入。这个功能通过支持模拟输入边界情况来解决WebXR开发中的一个主要挑战。

  • 仿真设备的精确变换控制:直接输入数值,精确控制仿真控制器、手、头显的位置和旋转。

  • OfferSession支持:使用OfferSession API的体验将在登陆页面显示一个“进入XR”按钮,模仿浏览器地址栏中的“进入VR”按钮。这可以帮助你在桌面测试offerSession的行为。

  • UI:基于用户反馈对UI进行重大重新设计,增强了可用性和美观性。

  • 新的IWER + @IWER/DevUI设置为WebXR仿真工具提供了有史以来最广泛的兼容性,支持Web所有主要的3D框架。

]]>
Meta GDC分享: Horizon Worlds创造、盈利和增长的见解 https://news.nweon.com/128566 Sat, 22 Mar 2025 01:02:05 +0000 https://news.nweon.com/128566 关于Horizon Worlds创作,创收和增长等方面的见解]]> 查看引用/信息源请点击:映维网Nweon

关于Horizon Worlds创作,创收和增长等方面的见解

映维网Nweon 2025年03月22日Meta正继续分享GDC 2025的演讲。下面这篇博文将介绍关于Horizon Worlds创作,创收和增长等方面的见解:

1. 扩大你的受众

随着Horizon Worlds陆续支持Web、混合现实和移动平台,你现在可以触及到比以往更多的用户。不仅只是这样,Meta将把Horizon Worlds的访问权限整合集团的应用系列之中,这样你就可以触及大约33亿活跃用户。

2. 使用桌面编辑器加速创造力

桌面编辑器是你释放创造力的门户。它提供给13岁以上的创作者,并具有一套支持快速开发的功能集。

桌面编辑器支持自定义模型导入功能,允许你导入使用Blender, Maya和Adobe等工具制作的FBX文件。

另外,它支持TypeScript,可以帮助你使用熟悉的集成开发环境,比如VS Code,从而直观地编写交互元素的脚本。利用TypeScript和强大的Horizon API,你可以实现更复杂的游戏逻辑和机制。同时,你可以利用TypeScript来完成相对简单的任务,比如创建新项目,或者更复杂的用例,比如集成交互式NPC。

不仅只是这样,美国创作者可以利用桌面编辑器的生成式AI功能套件,帮助减少开发时间,填补技术空白,甚至从零开始创建整个世界。Meta的生成式AI工具将帮助你的团队增加输出、简化编辑和构建更具吸引力的世界来,从而扩大世界的创建规模。到目前为止,编辑器支持AI来生成TypeScript、天空盒、声音效果和环境音频等。

在接下来的几个月里,团队将推出更多的生成式AI功能,通过生成3D网格,纹理,甚至利用最新的Llama模型来赋能NPC。

更多关于桌面编辑器的信息请访问这个文档

3. 实现盈利

Meta已经启动了一个5000万美元的创作者基金,并将主要通过奖金计划以及全年的比赛来发放。目前,团队主要在四个领域资助创作者:

  • 头显端的用户时间

  • 手机端的用户时间

  • 留存

  • 内购

尽管Meta发放的奖金是创作者获得收益的有效手段,但你同时可以通过内购方式来创收。Meta Horizon Creator计划的成员可以出售数字道具、代币、关卡、升级道具等。这主要分为两类:

  • 消耗品:一次性使用的物品,可以在购买后的任何时间点使用或“消耗”。

  • 耐用品:一次性购买的物品会持续存在,并添加到玩家的库存中。

为了最大限度地实现盈利,你可以考虑以下建议和最佳实践:

  • 新鲜度:目标是每月更新或发布新的内购项目,以重新吸引用户。

  • 混合:引入多样化的内购组合,提供更多选择,满足用户需求。

  • 相关性:考虑如何将数字商品整合到游戏世界的核心机制中。

  • 价格点:提供一系列的价格点,以吸引用户愿意支付的价格。

  • 考虑用户旅程:你可能希望将用户通常在旅程早期使用的道具定价为较低的价格点。

  • 锚定价格点:即使大多数玩家不购买昂贵的道具,也可以将其纳入游戏中。

  • 包括低价值选项:提供更便宜的内购选项。

值得一提的是,Meta将为创作者提供各种各样的比赛来赢得现金奖励,包括奖金池达到100万美元的Mobile Genre Showdown

本次比赛将持续到2025年5月8日,对所有Meta Horizon创作者计划成员开放,并将奖励30位创作者,其中前五名获奖者将获得10万美元的奖金。更多信息请访问这里

另外,欢迎加入Meta Horizon创作者计划并访问创收文档

3. 使用分析工具

创造者门户为你提供了一套分析方法,包括关于玩家粘性的关键参数,如留存率,访问量和时间。这里同时包括内置库和资产包,允许你自定义特定于游戏的世界参数。每个月都会有更多的分析工具亮相,并提供平台基准测试、3D热图和世界封面照片的A/B实验等关键功能。

在创建内容时,你可以利用桌面编辑器的高级分析工具来跟踪性能并确定需要改进的地方。相关工具提供了关于游戏世界的脚本、物理和音频如何影响硬件CPU和GPU的详细数据。

分析工具可以派上用场的三个主要领域是迭代、增长和监控。根据你在开发周期中的位置,不同的指标将变得更加重要。

3.1 迭代

当你的游戏发行时,留存率可以反映长期粘性和成功。如果你注意到大多数用户的留存率在一段时间后持续下降,请迭代你的核心游戏循环以提高吸引力。

由于存在非常多的世界可供探索,用户可能会不断寻找感兴趣的世界。这就是为什么“持续访问量”可以派上用场。这个指标衡量的是在你的游戏世界中停留时间超过5分钟的用户比例,从而为你的游戏世界是否具有强大的吸引力提供可靠的基准。

在迭代阶段,通过漏斗转化率和每用户盈利来衡量盈利效果同样重要。从你的盈利目标往回看可以帮助你确定每个用户需要花多少钱来实现你的目标。

即便有了早期的反馈和测试,我们可能都很难确定哪种机制或玩法类型会吸引用户。这就是为什么迭代阶段是收集用户行为洞察和快速调整以开发更引人注目和更有效体验的关键。确定用户所采取的重复活动或他们反复花费的物品可以为未来的迭代提供蓝图。

3.2 增长

关注“增长会计”指标非常重要,这表明有多少用户是新用户、留存用户、流失用户或复活用户。
在增长阶段,点击率同样扮演着重要角色,它揭示了你的站点在吸引用户点击和进入方面的有效性。如果你的访问量低于预期,这可能意味着你的创意资产可能需要变强,或者你的描述需要进行微调。

3.3 监控

尽管监控是这个列表的最后一个,但Meta建议在世界生命周期的每个阶段进行监控。在Creator Portal World Insights页面中包含了一系列的性能指标,如崩溃率和FPS,所以你可以监控你的世界表现。很快,团队将推出一项自动警告功能,在某个关键指标出现下降时提供自动警报。一致的监控可以帮助你减少错误,识别新出现的机会,并确定策略是否有效。

另外,内容分析是特定于你的世界,并为你提供驱动其他粘性和留存指标的机制。所有开发者都可以使用分析工具进行内容分析,包括特定类型的指标,如区域分析、热图、进程分析等。你的参数越细,你就越有能力做出战略性的有益改变,并确定内容的哪些部分能引起用户的共鸣。

]]>
Meta在GDC大会上分享MR/VR体验设计策略与开发工具 https://news.nweon.com/128533 Fri, 21 Mar 2025 00:30:05 +0000 https://news.nweon.com/128533 设计MR/VR体验的策略和考虑因素]]> 查看引用/信息源请点击:映维网Nweon

设计MR/VR体验的策略和考虑因素

映维网Nweon 2025年03月21日Meta正在分享GDC大会的演讲。下面这篇博文将介绍设计MR/VR体验的策略和考虑因素:

Quest 3和Quest 3S正在重新定义用户与设备的交互方式,允许你探索无数高质量的MR和VR体验。

但即便有了像Building Blocks和Mixed Reality Utility Kit这样的工具,创造完全沉浸式的体验,以及融合物理和虚拟世界依然存在独特的设计挑战。

所以下面将介绍一系列优秀开发团队提供的策略和注意事项:

1. 混合现实设计

来自Creature的创意总监道格·罗斯·库克(Doug North Cook)在GDC大会为我们提供了他的建议:

  • 建立有意义的交互

    • 从每个对象级别开始,然后再深入:采用分层方法有助于确保可交互对象针对其环境进行优化。首先创造高质量和可识别的对象,然后将它们整合到更广泛的游戏体验中,然后进行场景级优化。

    • 利用产品设计方法:无论应用类型如何,确保用户能够直观地理解,在你的体验中移动和交互,增加满意度并减少挫败感。令交互舒适和易于访问可以帮助用户在整个体验过程中保持参与。

    • 确保无缝体验和交互保真度:无缝的用户体验能够保持沉浸感和可信度。提高虚拟对象的交互保真度有助于用户在你的混合环境中感受到临场感,并暂停怀疑。

  • 让它感觉真实

    • 专注于可理解的可供性:清晰传达什么动作是可能的,以及如何与对象或面板交互,减少用户的挫败感,并实现更无缝的交互,特别是对于混合现实的新手用户。

    • 所有交互都需要音频、视觉和触觉反馈:提供反馈形式可以作为增强沉浸感的确认机制,并提供交互已经完成的清晰度。

    • 创造值得交互的对象:确保可交互对象在你的体验环境中发挥作用,从而减少混乱并推动进程。

更多信息可以访问《Meta分享:Quest 3 MR开发入门和性能提升指南》

2. 利用全新的Passthrough Camera API

现在所有开发者都可以开始利用Passthrough Camera API的公开实验版本来访问Quest 3和Quest 3S的前置RGB摄像头。这解锁了使用房间图像应用纹理的能力,为AI模型提供输入,并计算真实世界的数据,如亮度水平,氛围颜色等。你可以在下面看到一个示例视频,利用这个API将图像应用到纹理中以产生反射池效果:

或许最令人兴奋的是,相关图像可以用来驱动机器学习和计算机视觉管道。能够理解环境并实时做出反应能够创造出有趣的游戏以及教练和生活应用。

从娱乐到商业和工业应用,Meta相信这种能力可以应用于各种各样的体验。为了探索潜在的用例,这家公司邀请了数支团队来分享他们是如何使用Passthrough Camera API来帮助内容创建、玩家定制、对象生成和寻路。

Resolution Games首席执行官汤米·帕尔姆(Tommy Palm)分享了结合混合现实的经验。通过Passthrough Camera API, 他们正在尝试捕获和利用真实世界的图像来提供引人注目的游戏,比如把朋友或家人的人脸放到布娃娃身上:

当然,这只是一个早期的概念,但你可以想象一下,把你房间里的任何元素——从猫咪的照片到吉他的虚拟版本——带到游戏中,并与朋友分享,从而带来一种既新奇又真实的体验。

Niantic则分享了数个API的用例,包括对象和空间识别。在第一个示例中,你可以看到API如何支持虚拟角色识别树木,而生成式AI支持适当的后续反应。识别对象并基于它们改变游戏玩法的能力开启了一个充满可能性的世界。

另外,Niantic展示了一个利用API与视觉定位系统来帮助导航通过人口密集或大面积的物理区域。下面,你可以看到这个应用程序如何帮助引导用户到指定的区域:

以上只是Passthrough Camera API这个新工具如何应用的数个例子。要开始使用Passthrough Camera API,请访问这个文档

3. 设计和渲染热门VR游戏

热门VR游戏《蝙蝠侠:阿卡姆之影》的设计总监瑞安·达西(Ryan Darcey)和渲染工程师凯文·科尔(Kevin Call)分享了VR的设计和渲染策略:

  • 不要重新发明轮子:无论是VR还是传统游戏主机都有大量关于输入,交互和移动的最佳实践。为了确保无摩擦体验,除非你需要独特的解决方案,否则请坚持采用常见机制。

  • 在新的、更好的和相同的内容之间取得平衡:如果你是利用现有的IP,利用之前流行的功能,并检查如何通过最新的技术来增强它们——不要为了改变而改变。考虑到VR提供了传统平台无法提供的机会,我们需要确定是否以及何时可以使用手部追踪等功能来提供全新且独特的体验。

  • 以更高的质量发布更少的功能:专注于质量而不是数量,完善核心机制和功能。理想情况下,你的目标是在整个游戏体验中始终保持高性能。

  • 易学难精通:易用性在混合现实和虚拟现实游戏中扮演着重要角色,因为用户会继续使用技术和硬件。提供一种直观的体验,让玩家玩得越久就越有挑战性,这是创造一款具有广泛吸引力的游戏的有效策略。

  • 慷慨的交互:当用户与虚拟元素互动时,偏离精确性可以帮助VR体验感觉更加流畅和舒适。例如,如果用户需要在VR中打开一扇门,你可以将交互设计为只要求用户在自动完成交互之前将旋钮旋转一半。

  • 考虑将移动机制融入战斗中:在VR中,可以利用动作来推动用户在虚拟环境中前进。

  • 关注可见的身体区域:考虑用户最常看到角色身体的哪一部分。例如,如果你的内容使用第一人称视角,则专注于创造高保真的手臂和手而不是头部。

  • 考虑游戏功能如何与环境相关联和交互:角色小工具或武器等功能可以提高用户对交互性的期望。例如在《蝙蝠侠:阿卡姆之影》中,玩家可能希望能够使用抓钩到达更高的区域。

渲染技巧:

  • 缓解烘焙照明的限制:为了降低性能成本,团队在整个体验中利用烘焙照明,并努力优化光图,以获得更真实的外观和感觉。

  • 静态对象照明:为了以更低的性能成本为静态对象实现更高质量的照明,利用Unity的内置lightmap。接下来,在应用lightmap时,通过使用主导方向评估你的高光BRDF来实现直接的高光照明。最后,为了实现更真实的光影对比,通过指定最小阈值和衰减,从漫射亮度构建一个蒙版,并将其与着色器中的镜面相乘。

  • 动态对象照明:对于动态对象,团队利用Unity内置的light probe。为了在静态环境和动态角色的烘烤照明放置之间取得平衡,团队部署了一个称为“custom probe”的系统,允许他们使用MaterialPropertyBlock覆盖角色的球面谐波。可以根据需要放置custom probe组件来覆盖照明,允许美术使用三点照明设置来添加光线。Unity的SphericalHarmonicsL2 API用于从三个光源累积照明。

  • 实时照明:为了在必要时使用混合照明(烘烤照明和实时照明)实现更低的性能成本,迷彩使用了减法。直接光照可以添加到光图中的静态物体上,而实时光照可以添加到动态物体上。然后可以将间接光添加到光图中的静态物体和使用光探针的动态物体上。

  • 实时阴影:为了在静态环境中添加角色投射的阴影,团队通过渲染阴影贴图来使用“假阴影”,然后用正向照明渲染不透明物体。接下来,他们渲染了每个假阴影光的投影体积和样本深度,并用它来重建世界位置,然后返回与帧缓冲区混合的衰减值。最后,渲染透明物体。

  • 反射:团队通过使用Unity内置的reflections probe在立方体贴图中存储环境捕获,从而为反射奠定了基础。为了克服复杂几何和光照条件下场景中的障碍,他们实现了一种称为“cubemap normalization的技术,在reflections probe捕获点存储球面谐波,然后在fragment shader中缩放反射。为了增强反射,团队使用了反射代理,即在场景中捕获特定对象的图像。在运行时,代理在一个已知的反射平面渲染和反射到一个对象可以采样的屏幕空间缓冲区。

4. 构建一个桌面MR游戏

Popup Asylum工作室的创意总监马丁·阿什福德(Martin Ashford)和总监马克·霍根(Mark Hogan)介绍了桌面混合现实游戏《Battlenauts》的制作过程。

团队基于经典桌游《Battleship》创造了一个多人虚拟现实原型。在玩了这款游戏后,他们意识到将混合现实作为一种提升沉浸式桌面游戏体验的方法的潜力。

Meta通过数个示例为开发者提供了实现混合现实和社交功能的最佳实践。通过探索展示,Popup Asylum能够依靠Spirit Sling示例的桌面框架来处理游戏板和用户角色定位。所述框架同时为Photon Fusion提供了打装器,而团队将其与Destination API集成,以支持用户之间的多人游戏邀请。

沉浸式VR环境通常比人们在物理环境中可以安全导航的空间要大得多。当Popup Asylum调整其原始VR原型以支持基于透视的游戏玩法时,他们注意到需要缩小游戏空间以适应桌面尺寸。

为了确保渲染的虚拟对象代表用户的物理空间的尺寸,团队实现了一个解决方案,淡出任何渲染超出物理墙壁的对象。这是通过使用Mixed Reality Utility Kit 首先生成一个房间的3D网格来实现,然后使用多重混合模式渲染网格,令渲染网格之外的物体变暗。当与camera合成时,游戏的深色使得物理世界能够通过渲染对象显示并应用透明度。

另外,Meta Avatar的使用允许Popup Asylum有机会为用户提供在游戏中表现自己的更高质量方式。但考虑到Meta Avatar现在支持渲染下半身,团队必须克服挑战,并创造一个坐着的桌面体验。作为解决方案,团队决定使用Avatar SDK的Attachables System将座椅固定在Avatar的臀部。这带来了熟悉的,坐着的棋盘游戏体验,同时保持用户之间的视线一致性。

]]>
Meta在GDC大会发布Horizon OS新工具与开发者支持计划 https://news.nweon.com/128531 Fri, 21 Mar 2025 00:30:03 +0000 https://news.nweon.com/128531 新机遇,以及可用工具和资源]]> 查看引用/信息源请点击:映维网Nweon

新机遇,以及可用工具和资源

映维网Nweon 2025年03月21日Meta正在分享GDC大会的演讲。下面这篇博文将介绍Horizon OS的新机遇,以及可用工具和资源:

1. 利用多人模式和应用内购

多人游戏体验正在兴起,如今Meta Horizon Store中大多数最受欢迎的游戏都支持多人游戏,而且提供社交体验的F2P应用的用户时间比以往任何时候都多。考虑到这一趋势,现在是构建以多人模式为核心的新体验或在现有游戏中实现多人模式支持的最佳时机。

F2P游戏越来越倾向于应用内购(IAP)。这是一种越来越可行的创收方式,并在2024年推动整体付费量增长12%。为了帮助你抓住通过IAP创收的机会,我们发布了Growth Insights Series,其中包含有效执行游戏的技巧和策略。

延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 1
延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 2

像Building Blocks, MR Motifs和Meta XR Simulator这样的工具可以更轻松地集成和测试主机托管等功能,这样你旧有更多时间专注于创建独特而有趣的体验,减少安装和故障排除的时间。

更多关于Horizon OS多人游戏功能的信息请访问这个文档,下面将继续介绍可以帮助集成和测试的工具。

2. 更智能、更快速地构建内容

Meta在创建简化和减少开发时间的工具方面投入了大量资金,如果你是单独工作或者是混合现实开发的新手,相关工具帮助降低了进入的门槛,并提供了用更少开发经验或更少资源完成更多工作的机会。

2.1 Motif

大多数最成功的混合现实应用都有类似的机制,自Meta Quest 3亮相以来,相关机制已经变得司空见惯。

考虑到特定机制在内容生态系统中的重复,Meta开始提供“MR Motifs”,即希望开发者在创造新混合现实体验时能够使用的重复功能蓝图。Motifs并不是一个应用,而是一个帮助你在混合现实体验中快速执行常见机制的蓝图,帮助开发者克服在混合现实中构建高质量、同步的多人游戏体验所带来的挑战。

截至3月中旬,Meta已经分享了三个Motif:

延伸阅读Meta为Quest MR发布参考蓝图MR Motif:透视过渡
延伸阅读Meta分享:在Mixed Reality Motif中启用共享活动来实现同步多人体验
延伸阅读Meta推出MR Motif,基于Raycast与Depth API实现虚实交互定位

2.2 Building Blocks

Building Blocks是Meta XR All-in-One SDK中的Unity工具,旨在帮助你快速发现和集成通用功能。每个Building Blocks封装一个特定的功能,所以更容易快速制作原型或增强现有应用的新功能。

只需点击几下,你就可以简单地将Passthrough, Virtual Keyboard, Hand Grab等功能拖放到项目中,并正确配置所有依赖项。Building Blocks可以修改,以满足您独特的应用程序体验的需求,如添加一个自定义的手抓姿势时,抓取一个特定的对象。

值得一提的是,团队已经推出了Multiplayer Building Blocks,以加快社交功能整合,帮助你快速构建共享体验。使用所述工具,你可以快速添加对配对,托管,玩家语音聊天,Meta Avatar等的支持。更多信息请访问这个文档

Building Blocks同时已经发展成为强大的工具,并用来向新人开发者解释XR功能的工作原理,以及如何轻松地启用和修改。当点击新的Blocks详细页面时,你将看到安装Building Blocks时添加/修改的内容的解释,以及有关安装的相关文档链接等等。

2.3 Meta XR Simulator

测试是应用开发过程的核心,传统而言,这需要频繁地戴上和摘下头显。但有了Meta XR Simulator,你不再需要头显来测试体验。

现在,你可以无缝地模拟物理环境和设备控制,以测试不同的房间布局和输入选项,混合现实和多人游戏体验。这个强大的工具装载了11个预制的合成环境,消除了一系列与测试不同房间大小和物理对象相关的开发障碍。不仅只是这样,你甚至可以用头显扫描一个房间,并将其导出到这个模拟器。

通过模拟器在同一桌面同时运行多个同步实例的能力,实现高效的多人测试比以往任何时候都更容易。这个功能与记录和回放系统相结合,消除了部署多个头显和为VR多人游戏和混合现实体验重新创建序列的需要。

更多信息请访问这个文档

2.4 Immersive Debugger

当然,在测试完项目之后,你可能希望开始调试过程中发现的问题。Immersive Debugger for Unity允许开发者和技术美术能够直观地进行迭代,以使用具有特定应用调试选项的UI面板来解释空间和视觉元素。

Meta设计了具有全套功能的沉浸式调试器,以加快新手和经验开发者的调试。无需移除头显就可以监控状态变化,调用指定函数,调整指定的float/in/boolean变量等等。

更多信息请访问这个文档

2.5 应用展示

Meta的GitHub存储库为Horizon OS的开发者提供了大量的示例展示,涵盖混合现实、多人游戏、交互SDK、场景API等方面的最佳实践。每个展示都解决了你在开发下一个应用时可能遇到的不同挑战,并提供了完整的项目和源代码。

2.6 用AI增强你的应用

开发者已经开始使用AI来帮助开发内容,而在Horizon的生态系统中,我们看到了人工智能的进步,它们正广泛用于有效地生成音频、环境、代码和网格等。LLM同样有用来协助对话。Meta正在积极投资人工智能工具,包括Meta Horizon Worlds桌面编辑器的新功能。

Meta的AI模型Llama可以支持NPC,文本到语音,内容生成等。更多信息请访问这个页面

3. 通过开发人员计划快速获得成功

Meta Horizon Start这样的开发者项目旨在全面支持应用开发过程,这样你就可以有效地从初始阶段前进到发行阶段。

开发高质量的游戏体验需要技巧、毅力和独创性,而能够依靠充满激情和经验丰富的开发者社区,尤其是在遇到障碍的时候,这将大大提高你成功发行游戏的机会。

更多信息请访问这个页面

]]>
英伟达探索AI在XR领域的应用:构建多模态实时交互系统 https://news.nweon.com/128357 Thu, 13 Mar 2025 01:00:09 +0000 https://news.nweon.com/128357 在XR中利用VLM视觉语言模型]]> 查看引用/信息源请点击:映维网Nweon

在XR中利用VLM视觉语言模型

映维网Nweon 2025年03月13日英伟达一直有在探索AI在XR方面的应用。日前,团队就发文介绍了如何通过NVIDIA AI Blueprint for Video Search and Summarization*来构建实时多模态XR应用程序:

随着生成式人工智能和视觉基础模型的发展,VLM视觉语言模型掀起了视觉计算的新浪潮。其中模型能够实现高度复杂的感知和深入的情景理解,而这种智能解决方案为增强XR设置中的语义理解提供了一种富有前景的方法。通过集成VLM,开发者可以显著改进XR应用程序解释和与用户操作交互的方式,提高响应性和直观性。

这篇博文将引导你如何利用NVIDIA AI Blueprint进行视频搜索和总结,亦即打造一个视频搜索和总结Agent。从设置环境到无缝集成-实时语音识别和沉浸式交互,团队将解释完整的分步过程。

使用多模式AI Agent推进XR应用

通过会话AI功能增强XR应用程序,可以为用户创造更加身临其境的体验。通过在XR环境中创建提供问答功能的生成式AI Agent,用户可以更自然地进行交互并获得即时帮助。多模式人工智能代理处理和综合多种输入模式,例如视觉数据(例如XR耳机馈电)、语音、文本或传感器流,以做出上下文感知决策并生成自然的交互式响应。

这种集成可以产生重大影响的用例有:

  • 熟练工人培训:在模拟培训比使用真实设备更安全、更实用的行业中,XR应用可以提供沉浸式和受控的环境。通过VLM增强的语义理解可以实现更逼真和更有效的培训体验,从而促进更好的技能转移和安全协议。

  • 设计和原型:工程师和设计师可以利用XR环境来可视化和操作3D模型。VLM允许系统理解手势和情景命令,简化设计过程并促进创新。

  • 教育和学习:XR应用可以创建跨不同学科的沉浸式教育体验。有了语义理解,系统可以适应学习者的互动,并提供个性化的内容和交互式元素,加深理解。

通过集成VLM并结合增强的语义理解和会话AI等功能,开发者可以扩展XR应用程序的潜在用例。

NVIDIA AI Blueprint for Video Search and Summarization

在XR应用中利用VLM的关键挑战之一在于处理长视频或实时流,同时有效地捕获时间上下文。NVIDIA AI Blueprint for Video Search and Summarization通过支持VLM处理长视频和实时视频馈送来解决所述挑战。

NVIDIA AI Blueprint for Video Search and Summarization有助于简化视频分析AI Agent的开发。它们通过利用VLM和LLM来促进全面的视频分析。其中,VLM为视频片段生成详细的字幕,然后存储在矢量数据库中;LLM则进行总结以生成对用户查询的最终响应。更多信息可参阅这个页面

所述AI Blueprint的灵活设计允许用户定制工作流程并适应不同的环境。为了令其适应VR Agent的特定用例,第一步是确保将VR数据流送入管道。例如,你可以使用FFmpeg直接从VR头显的屏幕捕获VR环境。为了给予Agent交互性,英伟达优先启用语音通信。有什么比与VR Agent对话更好的交互方式呢?

有多种方法可以将音频和视觉理解整合到XR环境中。在本教程中,我们修改了AI蓝图,通过以一致的间隔分割音频和视频来合并音频处理,并将它们保存为。mpg和。wav文件。视频文件(.mpg)由VLM处理,而音频文件(.wav)通过API调用发送到NVIDIA Riva NIM ASR进行转录。Riva ASR NIM api可轻松访问最先进的多语言自动语音识别(ASR)模型。然后,转录的文本与相应的视频一起发送到VLM。

NVIDIA AI Blueprint for Video Search and Summarization可以理解长视频或实时流。然而,当用户提出问题时,只需要理解视频的部分内容。管道检查是否存在音频记录。如果副本可用,则调用VLM。如果不是,管道等待音频输入,而不是连续处理所有视频帧。

一旦检测到转录,管道将继续进行VLM和LLM调用,并使用Riva NIM TTS文本到语音模型将生成的响应转换回音频,然后返回给用户。下图显示了过程的详细步骤:

步骤一:创建VR环境

首先,通过Oculus Link桌面应用接入Meta Quest 3,从而在模拟一个VR环境。NVIDIA Omniverse是一个开发OpenUSD应用的平台,专注于工业数字化和物理人工智能仿真。NVIDIA Isaac Sim则是基于Omniverse构建的参考应用,用于在物理精确的虚拟环境中设计、模拟、测试和训练基于人工智能的机器人和自主机器。本教程使用来自预构建Isaac Sim模拟的Cortex UR10 Bin Stacking

随着模拟运行,下一个任务是将Isaac Sim与任务对接起来。这是通过在Isaac Sim中启用英伟达提供的一组Create XR插件来实现。激活的插件如下:

  • Omniverse XR Telemetry

  • OpenXR Input/Output

  • Playback Extension for XR

  • Simulator for XR

  • UI Scene View Utilities

  • VR Experience

  • XR Core Infrastructure

  • XR Profile Common

  • XR UI Code for Building Profile UIs

  • XR UI Code for the Viewport

  • XR UI Common

一旦插件激活,使用OpenXR点击启动VR模式按钮进入VR环境。

接下来,按照以下步骤在Windows系统设置RTSP stream以捕获VR环境:

  • 下载mediamtx-v1.8.4的Windows版本。

  • 解压缩下载的文件夹,并导航到cd mediamtx_v1.8.4_windows_amd64.所在的目录。

  • 创建mediamtx.yml配置文件,并将其放在相同的目录中。

  • 运行 .\mediamtx.exe以启动RTSP服务器。

  • 在Windows安装FFmpeg

  • 根据你的设置执行以下命令之一。请注意,你可能需要调整特定参数以获得兼容性和最佳流性能。

运行以下命令设置FFmpeg,以便捕获屏幕和麦克风:

ffmpeg -f gdigrab -framerate 10 -i desktop -f dshow -i audio="Microphone(Realtek(R) Audio)" -vf scale=640:480 -c:v h264_nvenc -preset fast -b:v 1M
-maxrate 1M -bufsize 2M -rtbufsize 100M -c:a aac -ac 1 -b:a 16k -map 0:v -map
1:a -f rtsp -rtsp_transport tcp rtsp://localhost:8554/stream

运行以下命令,以在播放预录制音频文件时设置用于屏幕捕获的FFmpeg。所述命令无限循环播放音频。若只播放一次音频,请删除–stream_loop参数:

ffmpeg -f gdigrab -framerate 10 -i desktop -stream_loop -1 -i fourth_audio.wav-vf scale=640:480 -c:v h264_nvenc -qp 0 -c:a aac -b:a 16k -f rtsp-rtsp_transport tcp rtsp://localhost:8554/stream

步骤二:向管道添加音频

为了支持输入和输出音频处理,英伟达团队修改了NVIDIA AI Blueprint for Video Search and Summarization,以便它可以在视频输入之外合并音频。这个功能将在未来的版本中由VSS本地支持。

在本教程中,使用GStreamer的splitmuxsink来修改管道。团队建立了一个音频处理管道,对传入的音频流进行解码,并将其转换为标准格式。然后,使用splitmuxsink将音频数据写入分段的.wav文件,以便于管理和播放。这种集成确保在AI Agent的管道中同时处理音频和视频流,从而实现全面的媒体处理。

下面的代码展示了一个增加音频工作流的示例方法:

caps = srcbin_src_pad.query_caps()

if "audio" in caps.to_string():
    decodebin = Gst.ElementFactory.make("decodebin", "decoder")
    audioconvert = Gst.ElementFactory.make("audioconvert", "audioconvert")
    decodebin.connect("pad-added", on_pad_added_audio, audioconvert)

    wavenc = Gst.ElementFactory.make("wavenc", "wav_encoder")
    splitmuxsink = Gst.ElementFactory.make("splitmuxsink", "splitmuxsink")
    splitmuxsink.set_property("location", self._output_file_prefix + "_%05d.wav")
    splitmuxsink.set_property("muxer", wavenc)
    splitmuxsink.set_property("max-size-time", 10000000000)
    splitmuxsink.connect("format-location-full", cb_format_location_audio, self)

    pipeline.add(decodebin)
    pipeline.add(audioconvert)
    pipeline.add(splitmuxsink)

    srcbin.link(decodebin)
    audioconvert.link(splitmuxsink)

    pipeline.set_state(Gst.State.PLAYING)

*步骤三:集成

Blueprint管道使用一个队列来处理从实时RTSP sream生成的视频块。视频块与预定义的文本提示一起传递给VLM。另外,同样的队列用于处理音频块,并发送到Riva NIM ASR API进行转录。然后,将结果转录用作VLM的输入文本提示。

管道目前在所有视频块中使用相同的输入提示符。团队对管道进行了修改,以使用从转录生成问题的提示。当提问时,这一过程从总结任务转变为针对特定视频片段的VQA任务。英伟达同时提高了管道更的效率,如果没有相应的音频转录,它会跳过视频块的VLM推理。

VLM推理输出随后附加来自知识库的信息,然后将其发送给LLM以生成最终答案。在VLM和LLM推理之后,文本将发送到Riva TTS API以创建一个audio .mp3文件,而不是在web UI显示生成的响应。这个文件然后发送到本地Windows系统,并在VR设置中为用户播放。

申请抢先体验计划

准备好使用NVIDIA AI Blueprint for Video Search and Summarization创建自己的AI Agent了吗?请点击申请抢先体验计划

]]>
Meta分享F2P游戏规划和实现应用内购的最佳实践 Part 2 https://news.nweon.com/128237 Sat, 08 Mar 2025 01:00:04 +0000 https://news.nweon.com/128237 增长洞察]]> 查看引用/信息源请点击:映维网Nweon

增长洞察

映维网Nweon 2025年03月08日Meta正在撰文分享了增长洞察Growth Insights,目标是帮助开发者在Meta Horizon生态系统中提高用户粘性、留存率和盈利。作为希望从Meta Horizon Store盈利中获得最大收益的开发者,本文将为你提供有效的策略,帮助你创造可持续的体验,保持用户粘性。

延伸阅读Meta分享F2P游戏规划和实现应用内购的最佳实践Part 1

Part 1讨论了构架和规划应用内购盈利的有效方法,而下面的Part 2则将深入讨论执行策略:

对于增长洞察的Part 2,我们将深入探讨如何有效地执行应用盈利规划。

注意,无论你的应用或游戏类型如何,本文介绍的创收方案都不是一个即插即用的公式。下面将探索定价,有效的销售策略和内容节奏见解。

1. 提供不同的价格点来满足用户的需求

价格点,及用户对定价的敏感度在不同游戏和类型中存在显著差异。为了最大化吸引力,你必须提供广泛的价格选择,尤其是当你的游戏或IP首次接触应用内购时。提供多个价格等级确保了不同人口统计数据的包容性,例如不同的年龄组、地区和可支配收入水平。

大多数F2P游戏开发者会基于用户行为将定价分为三个主要类别:

  • 低(例如1美元-5美元):这种入门级购买选项通常用于转化新用户或提供小型、可负担的“充值”选项。用户在投入数个小时的游戏后,更有可能在这个范围区间内消费,从而增强他们的游戏体验。

  • 中(例如10美元 - 30美元):这种购买选项通常包括捆绑或折扣货币包。它们的目标是提供最佳价值,并向用户介绍重复消费机会。

  • 高(例如30美元以上):价格较高的选项通常是为已经购买过小额商品的用户保留。它们需要精心放置和展示,以最大限度地提高吸引力和感知价值。

在确定最初的价格点后,持续的测试是关键。考虑尝试不同的价格范围、折扣和提供优惠的方式。根据用户行为进行调整可以调整你的盈利策略。

例如,面向年轻用户的游戏可能需要适合家庭的定价,如战斗通行证或共享内容,这往往比一次性购买更有效。这种方法迎合了父母的需求,因为他们通常优先考虑安全控制和共享娱乐价值。

提供多种价格点和捆绑包是突出用户价值的好方法。确保你的最低价选择不会过度使用,同时不会被认为贬低了其他商品的价值。

2. 捆绑销售增加了转化率和交易价值

人们喜欢物美价廉的商品,而内容捆绑是满足这种需求的有效方式,同时又能保护单个商品的感知价值。捆绑通常指的是将不同的道具组合成一次购买。成功捆绑销售的关键在于,在不贬低独立产品价值的前提下,精心设计能够吸引各种购买行为的捆绑包。

2.1 通过价值驱动的捆绑包迎合更广泛的受众

有的游戏可能会将较小的皮肤包与主要内容包捆绑在一起,以吸引可能没有单独购买过相关道具的用户。这种方法允许你提供更好的交易内容,同时接触到更广泛的受众。

如果执行得当,捆绑包会为用户提供多个价格点和选择。例如,用户可以在基础游戏、附加内容或包含所有附加内容的付费版本之间进行选择。精明的用户欣赏这种选项,而你可以在不显著增加开发工作的情况下从增加的交易价值中获益。

3. 对质量的感知主导了购买意愿

在探索了定价和捆绑策略后,我们需要考虑另一个重要因素:用户如何看待质量。理解这种看法至关重要,因为这直接影响到他们在不同盈利模式下的购买决策。

3.1 平衡质量和价格

就数字产品而言,质量是一个不断变化的目标,在开发者的努力、投资和不会引发价格敏感性的定价结构之间找到适当的平衡是一项挑战。测试依然是理解驱动特定用户购买意图的最可靠方法。

3.2 由社交行为驱动的皮肤

皮肤道具是盈利策略的核心,因为它们能够吸引用户的社交动机。它们允许用户表达群体归属、技能、地位或成就。要想成功,皮肤必须吸引人,但相对质量最为重要。如果商品的视觉质量与价格相符,用户就会看重昂贵的商品。

然而,同样高质量的免费或廉价道具会令付费道具显得不那么有价值。保持这种平衡对于确保用户认为高价化皮肤有所值至关重要。

3.3 高级实用物品增强了游戏性并减少了摩擦

高级实用物品通过提供有意义的体验或缓解挫败感来加深用户粘性。为了鼓励购买,相关道具必须扩展游戏性(如解锁新游戏模式或在节奏游戏中添加歌曲),或提供帮助,如增加库存、加快进程或跳过重复任务等。

尽管相关功能是有效的,但必须谨慎使用,以避免给用户留下这样的印象:游戏是故意设计成不氪金就很难玩或不完整。

实用道具可以增强游戏性,但要确保它们是可选的。如果玩家觉得氪金是推进所必需的,或者提供了不公平的优势,他们可能会产生消极反应。

3.4 促销在推动转化率方面是有效的,但需要付出代价

无论是通过限时折扣、持续优惠还是独家购买机会,促销是提高转化率的万能工具。它们既可以推动新的消费,同时可以推动重复消费,但必须谨慎实施。在促销活动结束后,由促销活动带动的收入飙升之后出现收入下滑的情况并不罕见。幸运的是,风险可预测,并且可以通过深思熟虑的计划来减轻。

游戏行业的促销策略通常与零售行业相似,因为两者都依赖于相似的消费者消费模式。以下是常见的促销策略,以及相关的风险:

3.4.1 利用销售来提高用户粘性

降价促销是最常见的促销策略之一,通常用于模仿实体零售中的消费者行为。打折道具或游戏内货币是吸引新用户或激励现有用户重复购买的有效方式。例如,假日期间的季节性促销可以推动消费激增。

然而,频繁或激进的促销会使商品贬值,并产生不切实际的期望。持续的折扣可能会导致用户推迟购买,等待下一次促销,所以在进行促销时要牢记商品的感知价值。

3.4.2 用限时优惠制造紧迫感

限时优惠是传达稀缺性和紧迫性的有效方式。这种促销活动通常与特定事件联系在一起,比如新角色的发布、季节性内容或战斗通行证。当用户害怕错过时,他们更有可能购买。

然而,负责任地使用限时优惠至关重要的。如果作为限时优惠的打折商品在不久之后再次提供,用户可能会失去对未来提供的排他性的信任。稀缺性应该要令人感觉真实,以保持其影响和价值。

3.4.3 利用价格锚定和阶梯模式来引导消费

价格锚定是一种帮助用户通过比较价格来感知价值的策略。例如,以折扣价捆绑商品或Bonus奖励增加XXX,有助于消费者认为这笔交易更划算。但在使用这一策略时要小心,不要误导消费者认为这是一次降价促销,除非你实际上是在打折既定的捆绑价格。

另一方面,阶梯模式引入了渐进的定价等级,允许用户随着时间的推移调整自己的消费。举一个例子,“满300减30,满500减80,满1000减200”,消费越多折扣越大。这种策略在活跃的社区中特别有效,因为用户可能会比较价格并评估物品的感知价值。锚定和阶梯模式都是相对较低的风险,能够鼓励用户进行首次购买或逐步增加消费。

与讨论的其他策略一样,测试不同的促销方法对于确定最适合方法至关重要。实验,有时称为价格A/B测试,有助于发现适合用户的最佳设计、时机和价格点。这个过程可以确保你的促销活动与用户行为保持一致,并有效地推动用户粘性。我们将在下一篇文章中更深入地探讨这个主题。

4. 定期更新内容是提高游戏发行后用户粘性和盈利的关键

用户的消费动机是基于他们对游戏的投入,以及他们对内容将如何增强他们体验的看法。以一致的节奏发布引人注目的内容对于维持用户粘性和维持成功的商业模式至关重要。下面是有效构建内容发布的关键注意事项。

4.1 每2 - 4周发布新内容

成功的在线服务应用和游戏通常每2至4周发布新内容,这取决于更新的规模和范围。经常发布新内容能够通过引入新的挑战,继续叙述或提供独特功能而保持用户的新鲜感。

为了保持主要更新之间的粘性,开发者可以在计划中添加可重复的内容,或者提供基于时间的奖励,如每日或每周签到。这种策略可以令用户沉浸其中,并创造一种进步感。

4.2 使用进度系统和时间控制来扩展内容生命周期

用户通常渴望在新内容出现后立即消费。为了防止完成更新的速度快于更新的速度,可以使用时间限制机制。

例如,像能量或耐力之类的系统,或者将更新分解成更小、定期发布。这种方法为用户提供了持续融入游戏的机会,并培养了一种更长期的联系,从而增加消费。

4.3 平衡免费和付费内容,吸引所有用户

当发布新的更新时,重要的是要创建吸引所有用户的内容,并为每个人建立一个庞大的社交网络。免费内容帮助社区保持联系和参与,确保用户——不管他们的消费习惯如何——都能享受和参与体验。

免费体验同时可以为用户创造按照自己节奏探索优质内容的机会。这就是为什么必须保持平衡。如果所有更新都只面向盈利用户,你可能会疏远部分用户基数并降低整体留存潜力。

5. 为付费DLC保持一致的质量,并注意价格

付费DLC(可下载内容)通常会提供大量新内容,如额外任务、角色或故事情节。它通常会将游戏体验延长数个小时,并代表着一个重要的发行后收益机会。然而,有效地创造和定价DLC需要仔细的计划和执行

5.1 评估听众的需求和时机

规划DLC的第一步是确定是否有足够的需求来证明投资的合理性。当用户保持活跃和粘性时,DLC最为有效。根据多名开发者的说法,不同游戏的DLC附加率差异很大:独立PC节奏游戏的DLC附加率低至6%,而精明的开发者利用特别版和捆绑销售并在主要平台将附加率增加至60%。考虑这个范围是否符合你的应用用户和开发能力,或者其他类型的内容更新是否能为你的特定游戏提供更好的回报。

5.2 确保质量一致

在所有DLC产品中保持一致的质量至关重要。质量的变化常常导致不满意。例如,对于一组三个DLC,开发者可能会观察到与第一个和第三个版本相比,第二个版本的用户满意度或评论分数有所下降。这种差距会侵蚀用户的信任,影响未来的DLC销售,甚至影响游戏整体的观感。

5.3 价格战略

合理定价DLC是平衡盈利能力和用户满意度的关键。对于PC和主机游戏,DLC的价格通常在9.99美元到29.99美元之间,这取决于添加的内容和游戏性。

在定价时,考虑一下你是否在用过高的折扣暗示低质量。例如,即便折扣百分比相同,以9.99美元的价格提供19.99美元的DLC通常比将9.99美元的价格降至4.99美元更受欢迎。另外,要仔细考虑销售价格——用户通常将销售价格视为内容的“真实”价值。确保折扣对你的工作室和用户都是可持续的。

不一致的DLC质量会侵蚀玩家的信任,并对游戏整个内容管道的未来销售产生负面影响。

接下来是什么?

前两篇文章讨论了通过应用内购盈利的各种策略和战术。我们谈到了可持续盈利的重要性,即平衡用户价值和情感与有效的盈利策略。我们同时探讨了各种主题,如皮肤,内容节奏如何影响用户粘性,以及各种定价策略等等。

在接下来的时间里,我们将继续扩展增长洞察系列,深入探讨今天讨论的主题。我们会继续讨论针对Meta Horizon生态系统的用户获取、用户粘性策略等新领域。我们同时会尝试介绍其他流行的商业模式,如应用和游戏的订阅和付费模式。

我们的目标是为你提供可操作的策略,以提高留存率,推动用户粘性并建立可持续的收入流。

]]>
Meta推出MR Motif,基于Raycast与Depth API实现虚实交互定位 https://news.nweon.com/128188 Thu, 06 Mar 2025 01:00:04 +0000 https://news.nweon.com/128188 通过即时内容放置来提升真实感和加快项目设置]]> 查看引用/信息源请点击:映维网Nweon

通过即时内容放置来提升真实感和加快项目设置

映维网Nweon 2025年03月06日)Mixed Reality Motif是一个帮助你在混合现实体验中快速执行常见机制的蓝图。为了帮助开发者克服在混合现实中构建高质量、同步的多人游戏体验所带来的挑战,Meta日前分享了Mixed Reality Motif的新系列:通过即时内容放置来提升真实感和加快项目设置。

随着v71的发布,我们引入了MRUK Raycast Beta API,而开发者几乎可以立即开始创建混合现实体验。在当前的混合现实环境中,内容放置可能是一个繁琐的过程,因为设置过程要求用户在启动混合现实体验时扫描房间。有了如此多的虚拟内容和面板用例(从菜单到对象以及介于两者之间的一切),快速放置各种可交互内容的能力对于创建无缝、愉快的体验比以往任何时候都更加重要。

这就是MRUK Raycasting的由来。这个功能是为想要在用户面前放置一个2D面板或3D对象的应用而设计。利用MRUK Raycasting,用户可以简单地看一下放置的方向,并可开始与2D和3D内容进行交互。

这种类型的即时放置可以实现大规模,无摩擦的体验,支持用户与其虚拟环境之间自然和现实的交互。例如在先前分享的通过共享活动来实现同步多人体验的主题中,我们创造了一个虚拟棋盘体验体验。在这种情况下,可以利用MRUK Raycasting轻松地放置虚拟棋盘并在其下方投射逼真的阴影。

延伸阅读Meta分享:在Mixed Reality Motif中启用共享活动来实现同步多人体验

在这个即时放置混合现实主题中,我们将专注于如何使用Depth API的基础知识,亦即Raycast API背后的核心技术-并通过利用深度信息直接在你的着色器中实现视觉效果。这需要建立必要的知识来理解EnvironmentDepthManager是如何支持EnvironmentRaycastManager。

另外,你将学习EnvironmentRaycastManager是如何使用它的环境信息来执行光线投射,返回命中点信息,并允许你毫不费力地放置对象。EnvironmentRaycastManager是MRUK包的一部分,所以在开始之前,请确保在项目中安装了MRUK v71或以上版本。

Depth API:基础

Depth API提供实时深度图,而应用可以用来感知周围环境。首先,它通过允许现实世界的物体和表面遮挡虚拟对象,令它们看起来融入了实际环境,从而增强混合现实体验。遮挡至关重要,因为它可以防止虚拟内容作为一个层出现在现实世界,并潜在地破坏沉浸感。

从v67版本开始,我们更新了检索深度纹理的机制,从而提高了质量和性能。EnvironmentDepthManager类,现在是Meta XR Core SDK的一部分,负责为着色器提供深度信息,并允许你创建以前几乎不可能的视觉效果和游戏玩法。

当利用深度API时,EnvironmentDepthManager类需要出现在你的场景中,以便在着色器和脚本中使用环境深度信息。这个类检查支持,初始化深度提供器,并从每帧的深度传感器中检索深度纹理。诸如_EnvironmentDepthTexture(真实世界的深度图),_EnvironmentDepthReprojectionMatrices(深度摄像头的视图投影矩阵)和_EnvironmentDepthZBufferParams(用于线性化深度值的参数)等关键属性在着色器中全局设置。EnvironmentDepthManager支持硬遮挡和软遮挡模式,可以应用对象特定的深度掩码。这个设置允许着色器将虚拟对象与真实世界的深度混合,以实现逼真的遮挡和视觉效果。

在着色器中访问深度变量

DepthLookingGlassMotif着色器使用渐变颜色效果将Depth API提供的真实世界深度可视化。它同时显示摄像头看到的虚拟对象深度。要看到虚拟场景对象,你需要启用深度纹理。

为了使用_EnvironmentDepthTexture, _EnvironmentDepthReprojectionMatrices和_EnvironmentDepthZBufferParams,我们可以导入包含Meta XR SDK Core package附带的稳健的着色器。相关文件包含处理环境深度采样和重投影的实用函数和预定义宏,允许我们轻松访问深度数据并将其集成到着色器中。同一个包含文件适用于BiRP和URP。

#include "Packages/com.meta.xr.sdk.core/Shaders/EnvironmentDepth/BiRP/EnvironmentOcclusionBiRP.cginc"

DepthLookingGlassMotif着色器展示了如何采样深度,并使用_EnvironmentDepthZBufferParams将数据从归一化设备坐标(NDC)转换为线性深度,使我们能够准确地测量从头显到环境深度的距离。

然后使用_EnvironmentDepthReprojectionMatrices将世界位置转换为正确的深度空间,以便比较场景深度和环境深度纹理。

_EnvironmentDepthTexture类是系统捕获的实际深度图,表示现实世界表面相对于摄像头的深度。

使用_EnvironmentDepthZBufferParams可以很容易地将采样深度归一化为线性深度,从而可以无缝地比较和混合虚拟对象和现实世界的深度。

这个功能使得基于物体相对于环境深度的位置来进行遮挡成为可能。如果你想在着色器可视化虚拟对象,记住这只适用于不透明对象,因为Unity中的透明对象不会写入深度缓冲区。

如果你依然想要写入深度缓冲区的不可见对象,我们在项目中包含了一个名为DepthMaskMotif的自定义着色器,而你可以应用到一个对象,使其不可见,但依然可以通过你的Depth Looking Glass看到。这种机制有助于创造密室逃生或捉鬼冒险等体验。

在着色器中访问深度图

对于这个Motif,你可以学习如何将效果直接应用于深度图。另外,当球体在空中飞行时,我们在深度图应用了照明效果。

球体本身有一个着色器,负责将自身遮挡在物体后面。要将遮挡添加到你的shadergraph着色器,你所要做的就是添加一个OcclusionSubGraph并将其接到着色器的alpha输出。在示例中,我们添加了一个名为Environment Depth Bias的浮动属性作为输入。稍微增加这个值将解析z-fighting,或者换句话说,防止我们的对象在太靠近墙壁时闪烁。

对于示例中的冲击波效果,我们使用一个简单的球体,其中它的大小随着时间的推移而增加,并且在它与深度相交的地方,我们应用一定的颜色来给它一个冲击波效果。你可以在项目中找到这个DepthScanEffectMotif着色器。它包含一个_Color属性,用于确定可视化的基本颜色。

另外,它有一个_Girth属性,用于控制冲击波的厚度。

以上就是我们如何使用Depth API来创建不同的视觉效果。接下来,我们将深入了解为什么这与即时内容放置相关。

即时内容放置

如果你看过这个项目,你可能已经注意到,为了把球体放在我们的房间里,我们根本没有使用任何网格。相反,我们利用了全新的EnvironmentRaycastManager。使用EnvironmentRaycastManager放置对象的基本概念如下:

重要的是是EnvironmentRaycastManager.Raycast函数。它对环境执行光线投射,并向我们返回命中结果,其中包含命中点、命中表面法线和法线置信度等信息。这是我们检测一个表面并在所述表面上放置任何对象所需的所有信息。

为了加深你对这个概念的理解,我们准备了一个名为InstantContentPlacement的额外场景。其中,我们将向你展示如何抓取对象并检测适合放置的任何表面。另外,使用相同的概念,我们在对象下方放置了一个接地阴影,它紧紧地贴在检测的表面之上,给予物体和体验更多的真实感。

在SurfacePlacementMotif类中,我们检查对象是否被抓取。在抓取时,我们想要更新我们的放置指示器,而它告诉我们是否足够接近表面来放置我们的对象。你会看到它从对象向环境投射一道光线。如果它碰到一个表面,我们测量对象和命中点之间的距离。一旦距离足够近,我们启用指示器并将其移动到命中点。

当取消选择时,我们首先检查是否碰到一个表面。如果是这样,我们测量距离来检查对象是否依然足够接近那个表面。如果是,我们平滑地将对象移动到表面上,稍微偏移一点,以便更好地可视化,这样我们依然可以看到阴影。最简单的即时放置是这样的:

using Meta.XR.MRUtilityKit;
using UnityEngine;

public class BasicInstantPlacement : MonoBehaviour
{
    public Transform Object;
    public EnvironmentRaycastManager RaycastManager;

    // Check if we hit a surface below our object
    if (RaycastManager.Raycast(new Ray(Object.position, Vector3.down), out var hitInfo))
        {
         // Position the object on the hitpoint/detected surface
     Object.position = hitInfo.point;
        }
    }
}

开始在混合现实中放置虚拟内容

使用本博客的见解,GitHub的源代码项目,以及教程视频,你将拥有开始在物理环境中的几乎任何表面放置任何虚拟对象的知识和技能。利用Raycast API和Depth API来充分发挥其潜力,解锁独特的视觉效果,提供更多的乐趣和真实感,我们非常期待看到你将如何实现你的混合现实体验。

]]>
Meta分享F2P游戏规划和实现应用内购的最佳实践 https://news.nweon.com/128086 Sat, 01 Mar 2025 00:30:06 +0000 https://news.nweon.com/128086 增长洞察]]> 查看引用/信息源请点击:映维网Nweon

增长洞察

映维网Nweon 2025年03月01日Meta日前撰文分享了增长洞察Growth Insights的Part 1(Part 2预计在3月发布),目标是帮助开发者在Meta Horizon生态系统中提高用户粘性、留存率和盈利。作为希望从Meta Horizon Store盈利中获得最大收益的开发者,本文将为你提供有效的策略,帮助你创造可持续的体验,保持用户粘性。

Part 1将讨论构架和规划应用内购盈利的有效方法,而预计在3月发布的Part 2则将深入讨论执行策略:

本文将探讨旨在帮助你创造长期收益的盈利机制。尽管相关见解适用于各种游戏类型,但并非所有策略都适用于你的特定项目。

理解盈利策略

盈利需要深思熟虑的规划和策略组合。根据Meta Horizon生态系统的独特动态,我们将专注于如何通过应用内购(IAP)来实现盈利的实用技巧。

今天的玩家如何消费

尽管付费游戏消费依然占据最大的消费份额,但应用内购已成为Horizon平台增长最快的营收来源。在过去两年中,应用内购出现了大幅增长,尤其是沉浸式游戏(将用户带入交互式3D环境的AR、VR、MR和XR体验)。这同时反映在用户在免费应用所投入时间发生了巨大的变化。

为什么用户粘性和留存率至关重要

随着时间的推移,应用自然会流失用户。创造能令用户回头回访的体验必须在盈利之前实现。成功的盈利取决于两个关键因素:

  • 粘性:衡量玩家投入多少时间和参与的内容。

  • 留存率:衡量用户在游戏中停留的天数。

可持续的盈利

平衡盈利和玩家至上的理念至关重要。建立长期成功业务的开发团队首先关注玩家价值,然后执行有效盈利策略。

Part 1将讨论构架和规划应用内购盈利的有效方法,而预计在3月发布的Part 2则将深入讨论执行策略:

Part 1- 框架和规划

现在,我们将介绍F2P游戏、订阅游戏和付费Live Service游戏中常用的盈利方法,以帮助你探索与内容相匹配的策略。

1. 关注盈利广度而非盈利深度

有效的盈利策略优先考虑用户健康——这一术语指的是应用付费用户的整体行为。付费用户定义为至少有过一次购买行为的用户,这个群体不仅是关键的营收来源,同时是最忠诚和最具粘性的用户之一。

1.1 理解盈利广度

在众多F2P游戏中,盈利的成功与活跃用户的数量或新用户的转化率有关。这通常称为游戏的盈利广度。

有两个关键指标有助于衡量这种广度:

  • 活跃付费用户转化率(每周活跃付费用户):这显示了每周用户转化为付费用户的百分比。较高的转换率意味着更多用户认为你的游戏值得花钱,这是健康发展的有力指标。

  • 每用户平均收益(ARPU)(每周活跃付费用户的每周收益):这反映了游戏平均每用户收益。它可以帮助你衡量你的盈利策略是否对你的用户有效,包括新用户。

例如,如果你的用户转换率提高了,这就意味着更多用户会尝试你的游戏内购。如果ARPU同时上升,就意味着有更多用户在消费,并且看到了更多消费的价值。

1.2 什么是盈利深度?

盈利深度侧重于现有付费用户产生的收益。每付费用户平均收益(ARPPU)和平均交易规模等指标能够帮助我们深入理解消费模式。尽管深度十分重要,但过于依赖现有付费用户可能会令你的游戏面临高风险,比如高价值付费用户流失。

1.3 为什么广度更为重要

维持一个专注于扩大付费用户群体的战略是长期成功的关键。通过不断增加新付费用户,你可以减少失去高价值付费用户的影响,创造更有弹性的盈利模式。

1.4 扩大盈利广度的策略

下面提供了可行的策略来扩大你的付费用户群体:

  • 用低成本激励机制转化新玩家:提供入门包或其他低成本激励机制有助于将新用户转化为付费用户。

  • 提供一系列的价格点:包括价格范围较低的选项,以吸引对价格敏感的付费用户。

  • 吸引不活跃的付费用户:使用有吸引力的激励措施来吸引不活跃的付费用户,帮助他们“赶上”其他活跃的付费用户。

  • 注意事项:即便是能够吸引高价值玩家的游戏类型,你都必须确保能够优先为游戏添加新玩家。

2. 基于皮肤的盈利模式

基于皮肤的盈利模式允许用户通过展示自己的技能、地位和身份来表达自己,在大型社交网络的游戏中,其价值得到显著放大。这种方法围绕着自定义选项,如服饰、宠物、表情和表情符号等等。相关道具通常称为“持久”购买,一般是一次性购买,具有较高的开发成本。

对于带有竞技元素的游戏来说,基于皮肤的盈利非常有效,特别是当开发者希望维持公平性时。在大多数游戏环境中,消耗品(即购买、使用、除非再次购买,否则不能重复使用的道具)通常比耐用道具具有更高的转换率。消耗品鼓励重复购买,而耐用品提供长期价值。

你可以利用消耗品来推动重复购买,并在精心策划的店面中专注于耐用道具。

2.1 通过超越美学来最大化皮肤价值

除了外在表达之外,皮肤同时具有更深层的用途。他们培养社会身份,表达社区成员,并展示地位。为了确保它们的价值最大化,可以考虑下面列出的策略。

  1. 突出技能、地位和身份:成功的外在设计能够解决玩家的多种动机:

    • 技能:包含反映游戏内成就的皮肤。为了保持排他性,这种物品通常是不可购买。完成里程碑挑战获得的皮肤比直接购买的皮肤更有意义。

    • 地位:限制可用性以创建排他性,例如季节性或特定于事件的项目。稀缺性增加了价值,给玩家一种威望感。

    • 身份:提供各种各样的装饰选项,允许玩家表达个性、情绪或团体归属。这确保了更广泛的吸引力和个性化的机会。

  2. 利用社交网络来增加价值:当别人看到皮肤时,它会获得更多的价值。只有玩家才能看到的皮肤的效果不如朋友或陌生人可以看到的皮肤的效果:

    • 鼓励玩家互动:带有团队游戏或团体活动的游戏提供了更多展示皮肤的机会,从而提高了它们的感知价值。

    • 整合社交功能:即便是单人游戏都可以从个人资料或大厅等功能中受益,因为这允许其他人查看和欣赏玩家的装扮。

  3. 最大化游戏曝光度:为了增强皮肤的吸引力,可以将其融入关键游戏系统中:

    • 突出装备物品:使用加载屏幕、胜利展示或角色介绍来强调玩家的皮肤。

    • 创造突出的时刻:确保皮肤在关键时刻闪闪发光,比如成就或胜利时。

  4. 简化购买路径:当用户看到有吸引力的皮肤时,你应该要提供一个清晰的购买路径:

    • 展示装备物品:使用玩家资料或游戏内菜单来突出皮肤,并直接链接到他们的购买页面。

    • 明确要求:明确玩家如何获得皮肤,例如通过成就、事件或直接购买。

3. 按效用付费系统

Pay-for-Utility按效用付费系统允许玩家购买道具或提升道具,并通过提供力量、更快的进程或解除限制来提升他们的游戏体验。这种购买通常是一次性,鼓励玩家进行多次购买。尽管这种方法可以增加营收,但关键是要确保玩家不会觉得花钱是唯一可行的推进方式。

3.1 平衡盈利与用户粘性

消耗性实用道具的开发成本通常较低,玩家负担得起,这使它们成为盈利的有效切入点。但需要注意的是:

  • 监控玩家反馈和用户粘性指标,确保在不强制消费的情况下依然能取得进展。

  • 避免过度依赖按效用付费机制,以免玩家感到需要氪金的压力。

3.2 包含广泛的进程路径选择

高盈利游戏通过提供给玩家不同的进程路径而获得成功。具有强大进程路径的游戏会令玩家觉得自己在不断进步。添加多种路径可以强化这种感觉,并对留存率和盈利产生积极影响。

举个例子来说,如果玩家可以花钱加速建造一座建筑,通常可以同时提供多个可供选择的建筑,以及其他允许加速的类似系统。这创造了一个更广泛的盈利框架,同时保持玩家的粘性,为其提供更多机会来投资于自己的进程。

3.3 使用深度进程路径最大化消费

除了多样性,游戏同时应该融入深度进程路径,鼓励玩家在游戏玩法的特定方面进行重复投资。设计合理的系统为玩家提供了多种氪金的机会,令他们努力提高自己的进度或表现。

例如在《Asgard’s Wrath 2》中,玩家会遇到一个多层次的锻造系统,武器和护甲可以通过6个不同的等级升级,而每个等级都需要从多个世界收集越来越稀有的材料。

4. 混合经济可以释放出最高的消费潜力

大多数游戏通过采用混合盈利策略(将皮肤购买与实用性道具结合在一起)而获得成功。这种方法创造了更具弹性的游戏经济。例如,英雄收集游戏主打耐用性购买,如角色、武器或季节性皮肤。这种游戏通过重复购买来强化道具,在耐用产品中创造可消费元素,从而增加其价值。

在多次交易过程中购买的消耗品通常会比单一的耐用物品带来更高的消费。这一方法能够提高玩家的消费潜力,并令他们继续沉浸于游戏进程中。

5. 使用战斗通行证来推动用户粘性

一系列的游戏利用限时活动在特定时间段内集中玩家粘性。这可以对留存率产生积极影响,令玩家有理由回到游戏中。

例如,战斗通行证会在一段时间内提供奖励,通常会捆绑独家皮肤、实用道具和经验值提升,价格在4.99美元至14.99美元之间。它们将粘性和盈利直接结合在一起,支持游戏和消费之间的共生关系,同时为用户提供不可思议的价值。

然而,执行战斗通行证系统伴随着挑战:

  • 高开发成本:制作独特、高质量的奖励是资源密集型的。延迟或不合格的交付会削弱玩家的信任。

  • 收益上限:战斗通行证的固定价格限制了收益潜力。所以可以与其他盈利策略相辅相成,以最大化用户粘性和消费。

在启动战斗通行证系统之前,确保你的团队有足够的资源来支持持续数月且引人注目的更新。

6. 利用可变奖励来扩大用户粘性

可变奖励或基于机会的奖励通过提供获得难以获得的道具的机会而引入不可预测性,并通常与普通奖励混合在一起。与直接购买相比,可变奖励可能需要更长的收集时间,这自然会扩大玩家粘性并增加消费潜力。

在执行可变奖励时,请考虑以下最佳实践:

  • 确保开箱变得令人兴奋但又可选:包括吸引人的视觉效果和动画,但为经常使用的用户提供可跳过的选项。

  • 尊重稀有奖励的价值:避免在解锁后大幅降低获取难度。

  • 保持透明:清楚地传达获得每个奖励的机会,以建立信任并允许做出明智的决定。

基于订阅的策略

在执行基于订阅的模式时,要专注于最大化投资于应用内的高质量时间,以传达持续成本的价值。订阅要求玩家觉得每一刻都是有价值的、有吸引力的,从而培养习惯性游戏,确保用户保持订阅。

这意味着执行让每个会话都有意义和奖励的功能。实现这一目标的策略将因模型而异。

  1. 要求订阅的游戏:目标是确保每天的用户粘性,因为访问游戏本身就是订阅的核心价值:

    • 引入每日任务,条纹系统和任务,鼓励定期登录。

    • 为完成活动提供有意义的奖励,以创造进程价值。

    • 在游戏中推广即将到来的内容更新,以鼓励持续订阅。

  2. 订阅可选的游戏:对于可选择订阅的游戏,重点则转向添加能够提升玩家体验的重要价值:

    • 提供更多的内容储备,如额外的歌曲或独家关卡。

    • 允许访问高级功能。

    • 解锁战斗通行证中的高级内容以获得独家奖励。

以上是Part 1内容,Part 2预计会在三月份发布。

]]>
Meta Horizon OS推出实时分析功能,提升应用监控与优化效率 https://news.nweon.com/127667 Wed, 12 Feb 2025 01:00:07 +0000 https://news.nweon.com/127667 实时分析功能]]> 查看引用/信息源请点击:映维网Nweon

实时分析功能

映维网Nweon 2025年02月12日)对于任何应用或业务来说,分析对于确定什么有效什么无效,如何改进优化,明智决策等至关重要。Meta Horizon OS为每个开发者提供了一套分析仪表板,以提供相关的见解。当然,趋势瞬息万变,所以Meta一直在积极投资于相关工具,并推出了实时分析功能,以便你能够跟上不断变化的用户行为和应用性能。

Meta已经在大多数分析仪表板推出了实时分析功能。这一改变大大减少了数据摄取延迟。

什么是“实时”分析,为何转变

通过实时分析,你可以在15-30分钟内刷新数据,这种即时洞察的可用性有助于确保你准确判断应用程序的性能和用户行为,从而更快,更明智地采取行动。

Meta指出,原来的分析系统存在明显的延迟,数据刷新可能需要24小时或更长时间。尽管这对于长期趋势分析是足够的,但对于快速决策而言并不理想。迁移到实时分析是一项复杂的工作,需要全新的基础设施和数据管道。为了确保新系统的准确性,这种大修十分有必要,同时是2024年团队投资的主要领域。

是什么改变了?

在过去的六个月里,分析仪表板已经逐渐从24小时以上的数据可用延迟转变为15-30分钟的延迟。这种转变对开发者使用分析来监控和优化应用的方式产生了深远的影响。例如,当你的应用推出时,你可以监控整个首发日的安装量和收益,以决定是否需要调整和优化营销策略。

现在,你可以使用全新的实时基础设施访问以下分析页面,而团队已经将以下关键分析页面迁移到实时基础架构,包括:

  • 概述

  • 收入

  • 附加内容

  • 用户参与度

  • 崩溃

  • 性能

  • 多人(移动)

  • 漏斗(即将推出)

  • 订阅(即将推出)

更多信息请访问分析文档

如何利用实时分析

实时分析改变了应用监控和优化的游戏规则,以便你能够获得更多的实践机会,并相信自己的决策是基于最新的数据。以下是充分利用这次升级的特定方法:

  • 从每周监控转变为每日监控:通过每15分钟更新一次数据,你现在可以更频繁地跟踪关键指标并主动解决问题。提示:你可以设置分析警报,根据分析变化触发直接发送到电子邮件。

  • 与其他工具相结合:使用实时分析和基准来确定优先级并优化特定的改进。

Meta表示:“我们相信,增强的功能将能显著改善你与分析交互和利用分析的方式,从而带来更好的决策,更快的响应时间,最终带来更成功的应用。我们期待看到你如何利用新功能来推动创新和增长。”

]]>
Meta分享:在Mixed Reality Motif中启用共享活动来实现同步多人体验 https://news.nweon.com/127420 Thu, 30 Jan 2025 01:00:03 +0000 https://news.nweon.com/127420 同步多人体验]]> 查看引用/信息源请点击:映维网Nweon

同步多人体验

映维网Nweon 2025年01月30日)为了帮助开发者克服在混合现实中构建高质量、同步的多人游戏体验所带来的挑战,Meta日前分享了Mixed Reality Motif的新系列:Shared Activities in Mixed Reality。

作为说明,Mixed Reality Motif是一个帮助你在混合现实体验中快速执行常见机制的蓝图。Shared Activities in Mixed Reality侧重于在混合现实中创建令人信服的共享活动,以鼓励真实,直观的交互。

延伸阅读Meta为Quest MR发布参考蓝图MR Motif:透视过渡

使用Multiplayer Building Blocks,这个Motif说明了如何更快更容易地创建多人混合现实体验。

概述:Shared Activities in Mixed Reality的基本概念

在VR中,多人游戏框架的设计是为了在完全沉浸式的空间中实现统一和共享的体验。这种体验允许每个人平等地共享相同的虚拟空间和对象,这意味着当一个对象或锚点移动时,从每个用户的角度来看,它会以一种一致和同步的方式影响所有用户。

然而,在混合现实中实现无缝共享体验可能具有挑战性,因为每个用户都可以调整内容以适应他们独特的物理空间,例如在物理咖啡桌放置虚拟游戏板。所以,这意味着在用户A的物理空间中正确放置的对象可能会导致用户B的物理空间不对齐。

这个问题的解决方案是操纵远程角色的位置和旋转,而不是锚的位置(例如棋盘)。通过这种方式,每个玩家都可以将棋盘放置在最方便自己的位置,同时保持其他玩家的相对位置和旋转。上图说明了这个主题的基本概念是如何运作的。

例如,假设客户B在客户A的对面,在他们的游戏板后面一米,并且将头转离板45度。有了这个解决方案,客户A可以将游戏板移动到他们想要的任何地方,同时依然看到客户B在正确的相对位置和旋转。在这个例子中,他们的头旋转45度,在游戏板后面一米。

Shared Activities in Mixed Reality Motif提供了实现所述解决方案所需的一切。你将学习:

  • 如何设置 Multiplayer Building Blocks,并查看组件如何协同工作。

  • 如何构建生成和移动虚拟角色的逻辑,同时保持它们固定在感兴趣对象之上,例如棋盘游戏,白板或电视屏幕。

  • 如何使用XR模拟器和ParrelSync测试多人游戏体验。

  • 如何使用Meta的平台解决方案邀请用户加入你的多人游戏体验。

使用Building Blocks创造多人游戏体验

使用Multiplayer Building Blocks进行开发允许你只需点击数下即可集成大多数多人游戏体验中的常见组件,但使用它们需要了解单个Building Block的作用及其构造方式的基本知识。更多信息请访问这个文档

Multiplayer Building Blocks提供与两个热门多人游戏框架的集成:Unity Netcode for Game Objects和Photon Fusion 2。这两个框架在原型阶段都有一个免费层,在进入生产阶段时有不同的定价选项。“玩家语音聊天”Building Block仅适用于Photon Fusion。所以,Shared Activities inMixed Reality Motif是基于Photon Fusion。

多人游戏开发中的重要组成

在Building Block之上添加自定义组件之前,有必要对Meta Horizon OS促进多人游戏体验和平台功能的组件有一个基本的了解。

NetworkRunner是Fusion的核心Unity组件,它代表了一个单一的网络客户端,用于所有的消息传递和配对等等。在这个Motif中,它作为一个场景对象加载到Fusion服务器,这要感谢Auto Matchmaking Building Block。

在Multiplayer Building Blocks中,你可以选择使用FusionBBEvents类而不是使用NetworkEvents。FusionBBEvents封装了来自Photon Fusion的INetworkRunnerCallbacks,并将它们expose为静态事件,以简化事件处理,促进模块化,并通过将网络逻辑与其他游戏系统解耦来实现更清晰的代码。

Entitlement checks对于创造利用Meta平台功能的多人游戏体验至关重要,这有助于提高用户粘性,允许用户能够看到其他用户的虚拟形象并与之交互,从而获得更真实、更自然的社交体验。

Platform Init初始化Meta Platform,检查用户是否有权使用应用程序,并检索他们的访问令牌和用户信息。然后,它更新初始化状态,并通过回调函数提供信息。Auto Matchmaking在加载场景时创建多人会话,使其更容易处理场景管理,帮助你创建一个融合会话和选择游戏模式。但是,你必须从Network Runner调用Shutdown,并在加载新场景之前离开当前场景。

在一个共享的混合现实活动中移动虚拟人物和其他游戏对象

在共享的混合现实体验中,每个玩家都保留他们的虚拟对象(例如棋盘或电影屏幕)的本地副本,以避免移动它时出现错位问题。为了支持用户和他们的环境之间真实和自然的体验,理解如何操纵角色的移动十分重要,包括什么组件可调整。

对于你可以移动的部分,不用担心引起任何非期望行为的是包含
AvatarBehaviourFusion组件的父对象本身。可以把它想象成另一个玩家的OVR camera的“远程版本”。这个组件允许你影响角色的位置和旋转,或者换句话说,是其他玩家camera的“远程版本”。

从网络列表中,你可以平等地定位远程虚拟角色相对于对象的位置和彼此的位置,确保每个人都享受相同的体验,同时控制他们想要在物理环境中放置对象的位置。

Shared Activities Mixed Reality Motif的主要组成

这个Motif的脚本文件夹细分为五个文件夹,每个托管简洁和易于遵循的类,可以促进Avatar的定位和连接。

AvatarMovementHandlerMotif管理网络角色位置和旋转的同步。这个类通过在对象移动或交互时更新其跨客户端的转换,确保本地和远程角色相对于中心“感兴趣的对象”正确定位,保持多人游戏环境中的一致性。

Spawning是这个Motif的另一个核心概念。SpawnPointMotif作为场景中刷新位置的标记。你同时可以创建更多刷新点来设置额外的刷新位置,从而获得更多的可变性。SpawnManagerMotif收集刷新点,处理等待刷新的玩家队列,并为玩家分配可用的刷新位置。

AvatarSpawnerHandlerMotif监听Avatar生成时的事件,并与SpawnManagerMotif交互,以排队玩家并确保他们放置在正确的刷新位置,无缝协调整个刷新过程。

最后,有两个类负责邀请朋友加入多人游戏体验:

  • GroupPresenceAndInviteHandlerMotif:使用Oculus Platform SDK管理群组存在和朋友邀请,允许用户将会话或场景设置为可与特定目的地和会话ID连接,并提供启动邀请面板的功能,以便用户可以邀请朋友加入他们的多人游戏会话。

  • InvitationAcceptanceHandlerMotif:允许好友加入会话,并使用Oculus Platform SDK管理深度链接邀请。当应用通过深度链接启动时,它会通过检查启动细节并将提供的目标API名称映射到场景,从而将受邀用户引导到适当的多人会话。

更多细节请访问GitHub页面

发现替代解决方案和示例

尽管这个Motif强调了在混合现实中构建共享活动时Multiplayer Building Blocks的有用性,但实际上存在其他解决方案。Meta鼓励你访问GitHub的Spirit Sling开源样本

]]>
Meta MQDH构建两个全新功能:图层可见性和图层属性 https://news.nweon.com/127048 Tue, 14 Jan 2025 01:06:12 +0000 https://news.nweon.com/127048 “图层可见性”和“图层属性”]]> 查看引用/信息源请点击:映维网Nweon

“图层可见性”和“图层属性”

映维网Nweon 2025年01月14日)合成层是一个强大而基本的渲染工具,可以增强应用程序的视觉质量和运行性能。合成器能够将场景划分为单独的图层,这意味着应用程序可以有效地渲染复杂的场景,并创造更身临其境的用户体验,无需担心牺牲性能。

尽管合成层的优势非常明显,但它经常遭到误解,所以Meta在MQDH中构建了两个全新功能,目标是帮助开发者优化应用程序并探索合成层的工作原理。

现在在MQDH中,“图层可见性”和“图层属性”功能可以帮助你将合成器图层构建到应用程序中。

图层可见性功能

图层可见性功能提供了不同层如何交互和影响整体用户体验的见解。当激活这个功能时,每个层都用复选框的控制面板表示,你可以切换复选框来可视化场景的不同部分如何对应于给定的层。使用相关信息,你可以优化应用程序的性能和视觉质量。建议从Layer Visibility指南开始,同时查看MQDH中的Performance Analyzer分析选项卡。

下面是你可以利用图层可见性功能来改进项目的方法:

  • 性能优化:图层可见性工具允许你通过启用或禁用特定合成器层来更有效地管理CPU和GPU资源。通过切换层的可见性,你可以识别并消除不必要的资源使用,以确保仅呈现必要的层。这可以显著提高性能,特别是对于具有多个层的复杂应用。

  • 视觉质量增强:通过了解不同图层对整体构图的影响,你可以增强2D图层的视觉质量。在控制面板中,你可以选中或取消选中复选框以查看每层如何影响头显中的视觉输出。这对于微调分层元素特别有用,例如确保重要的视觉组件不会被其他层遮挡。

  • 调试和分析:切换图层可见性同时有利于调试目的。它允许你发现遮挡层,特别是当合成层用作底层时。另外,你可以通过比较切换可见性之前和之后的性能指标来估计特定层的性能影响。比较参数对于分析和优化应用至关重要,可以确保应用运行顺畅高效。

在上图中,你可以看到切换“QUAD”复选框是如何影响渲染的合成层。在右侧,“QUAD”框未选中,隐藏了Horizon馈送层。这允许你分析单个层的性能影响。

图层属性函数

每一图层都有内部属性,而它们是在合成器中计算出来的。利用图层属性工具,你可以通过将鼠标悬停在单个图层项来查看相关属性。属性包括渲染PPD(每度像素)、纹理分辨率、推荐纹理分辨率和双眼的图层过滤。所述信息可以帮助你了解提交层的预期参数,使合成器能够生成质量更高的帧而不会产生额外的成本。如下图所示,当你靠近浏览器时,四层渲染的PPD会减少,从而提示锐化过滤器。

相反,当你离浏览器足够远时,呈现的PPD会增加到需要使用超采样过滤器的程度。

有关使用所述工具的更多详细信息,请参阅VR合成器中的文档。如果你在使用所述工具后有任何建议,请使用MQDH中的反馈工具向团队发送反馈。Meta将继续向MQDH添加更多功能,并提供更多工具来帮助你优化应用程序的质量。

]]>
如何设计制作VR游戏预告片,推动VR游戏宣发 https://news.nweon.com/126803 Thu, 02 Jan 2025 01:12:06 +0000 https://news.nweon.com/126803 如何制作没有MR,没有复杂影像合成,只有巧妙规划的VR预告片]]> 查看引用/信息源请点击:roadtovr

如何制作没有MR,没有复杂影像合成,只有巧妙规划的VR预告片

映维网Nweon 2025年01月02日)对于游戏的宣发而言,视频是一个重要的工具。下面这篇博文将介绍如何制作没有MR,没有复杂影像合成,只有巧妙规划的VR预告片。

首先,我们需要确保我们对预告片的重要性达成一致:你的预告片能够帮你卖出游戏。再怎么强调都不为过,你不能忽略游戏宣发工作,这应该要成为你游戏项目的重要一环。

所以,如果没有复杂的MR影像合成,你应该如何打造一个吸引眼球的预告片?下面我们把它分成三个简单的环节:

引子卖点

我们今天要讲的第一个,或许同时是最重要的一环是:引子卖点。你首先要吸引眼球,勾起人们的好奇心。

这可以是非常炫酷的战斗,独特的美术风格,富有创意的枪械设计,或者是其他游戏所没有的有趣机制。这是你游戏的标志。

无论吸引人的内容是什么,你所设置的引子卖点都应该比同类型的其他游戏更有趣(这同时意味着你应该多玩同类型的其他游戏)。如果没有这种吸引力,人们就找不到购买你的游戏而不是其他类似游戏的明确理由。

但请注意,你的游戏本身需要拥有足够的吸引力,不要欺骗你的受众。所以,如果你现在依然不清楚游戏的吸引点是什么,请在考虑制作预告片之前先行挖掘。

好了,现在我们来看一看实际的示例。我们要看的第一个预告片来自开发商Mixed Realms的《Hellsweeper VR》(2023):

所以,你看到的吸引点有什么呢?答案是“独特的战斗”。在任何标志出现之前,我们会首先看到10秒的VR战斗,玩家会使用有趣的武器和力量。

游戏的战斗在整个过程中都得到了强调。他们不会停下并使用抽象的阐述,他们只是不断地展示炫酷的战斗。预告片需要表达的是“这就是你想玩这款游戏的原因。”

亮出来,而不是说出来

这就引出了下一个要点:亮出来,而不是说出来。优秀的预告片并不会口说游戏的优秀之处。他们会实际亮出来。这在VR中尤其重要,大家需要看到其中的乐趣,这样才能理解为什么他们应该要戴上头显来体验你的游戏。

开发商Stress Level Zero的《Boneworks》(2019)的预告片就明确了这一概念:

这个预告片将玩家在游戏中体验到的一系列独特时刻联系在一起,并在我们脑海中创造了一幅关于开完这款游戏时的感觉画面。

故事结构

这就引出了我们的第三课:讲故事。

重要的是,这里并不是说“解释你的游戏叙事”。

你的目标是向受众展示他们会在游戏中做什么,以及他们在玩游戏时的感受。所以这就是预告片应该展示的要点。

你可能会想着呈现一般的游戏玩法片段,然后想办法把不同的片段剪辑在一起。但更好的方法是提前决定你希望玩家看到的最重要情景。

你不仅要决定你想要展示的时刻,而且应该考虑把它们安排在一个叙事弧线之中。简单地说,这意味着一个开端、发展、高潮,甚至是悬念,从而给人留下难忘的印象。

这正是开发商Respawn Entertainment为《荣誉勋章:超越巅峰 》(2020)制作的优秀预告片。请注意到他们是如何精心设计各种时刻,以实现一个关于玩家在开玩这款游戏时的感受的连贯故事:

技术清单

现在我们来快速讨论一下VR预告片的数个关键技术考虑因素。它们都非常重要,即便你不需要成为一个专业的电影制作人或导演,但如果你不能满足预告片的基本期望,人们可能不会相信你的游戏可以满足基本的期望。

  • 平滑的镜头:第一点是使用一个平滑的镜头。即便你戴上头显看时足够正常,但当你在平面屏幕播放时,由于玩家在游戏过程中头部的移动幅度非常大,游戏世界的运动看起来可能很不稳定。所以,你可以考虑添加平滑功能,就像用一台真正的摄像机拍摄你的预告片。

  • 60 FPS:第二,请以每秒60帧的速度捕获。即便使用了平滑,VR游戏画面中的动作都会比你在平面屏幕游戏中看到的要多得多。所以请增加你的帧率,以确保平滑流畅的镜头画面。当然,你不仅需要采用60 FPS的速度,而且需要确保游戏在60 FPS以上能够流畅运行。VR玩家对不稳定的帧率非常敏感,因为卡顿在头显中会令人不舒服,而且会破坏沉浸感。所以除了要确保你的预告片画面流畅之外,请确保玩家在开玩你的游戏时同样足够流畅。

  • 需要考虑屏幕等级,而不是头显等级:第三,如果你的游戏有黑暗的场景,请考虑在后期或游戏开发过程中增加画面的亮度。你的游戏自然会在头戴设备中调整到理想的亮度,但这很少转化为普通显示器。所以要确保你的画面足够明亮,在平面屏幕甚至是手机屏幕都能看清,而不是说单纯考虑头显看到的画面。

  • 分辨率和比特率:确保以高质量输出最终视频。你不可避免地要把预告片上传到像YouTube这样的流媒体平台,而它们可能会降低视频的质量。上传一个非常高质量的源视频将有助于抵消不可避免的质量损失。

“高质量”当然是一个不断变化的门槛,因为人们的屏幕和网络质量会随着时间的推移变得越来越好。对于2025年,目标可能是:

  • 录制和输出:100 Mbps

  • 分辨率:4K (3840 x 2160)

  • 每秒帧数:60

最终预告片示例

在展示最终预告片的示例之前,我们先来快速回顾一下。

我们讨论了三个关键的经验教训:

  • 要有卖点

  • 亮出来,而不是说出来

  • 讲故事

  • 我们同时讨论了数个重要的技术问题

最后,我们来看看将所有这一切都整合起来的优秀预告片:

对于制作游戏预告片,不知道你有没有什么经验教训想和大家分享的呢?

]]>
谷歌分享Android XR设计基础指南,采用三键式手势导航 https://news.nweon.com/126727 Sat, 28 Dec 2024 00:26:04 +0000 https://news.nweon.com/126727 Android XR设计基础指南]]> 查看引用/信息源请点击:映维网Nweon

Android XR设计基础指南

映维网Nweon 2024年12月28日谷歌正在不断扩展和完善Android XR设计基础指南。根据分享,这个系统正在将手机端的熟悉三键式导航操作带到XR。

下面是谷歌分享的Android XR设计基础指南:

基础

Android XR系统采用了与移动应用和大屏幕应用类似的互动性模型,包括主屏幕、应用概览、返回堆栈等已知模式。

为了帮助你打造无缝的一体化体验,Android XR提供了自然的动作导航、多模式输入以及全新的空间和3D功能。

Home Space和Full Space模式

用户可通过两种模式(Home Space和Full Space)体验你的应用。在Home Space中,用户可以同时使用你的应用和其他应用,实现多任务处理。在Full Space中,你的应用是用户体验的焦点,并可充分利用Android XR的沉浸式功能。

注意: 随着用户与你的应用或系统互动,空间功能可能会发生变化。为避免出现问题,你的应用应检查空间功能,以确定当前支持的功能。

Home Space:

  • 多个应用并排运行,用户可同时处理多项任务。

  • 任何兼容的移动版或大屏版Android应用都可以在Home Space中运行,无需进行额外开发。

  • 遵循针对大屏设备优化的指南开发的Android应用最适合自适应。

  • Home Space支持系统环境。它不支持空间面板、3D模型或应用的空间环境。

  • 应用具有受限边界。

  • 默认大小:1024 x 720dp

  • 最小尺寸 385 x 595dp,最大尺寸 2560 x 1800dp

  • 应用在距离用户1.75米的位置启动。

Full Space:

  • 一次只能运行一个应用,没有空间边界。所有其他应用都会隐藏。

  • 你可以在Full Space中将现有Android应用转换为空间化应用。

  • 你可以添加空间面板、3D 模型、空间环境或空间音频,从而充分利用空间。

  • 应用可以覆盖启动位置,并具有移动和调整大小的功能。

  • 应用可以直接打开到全屏空间。

  • UnityOpenXRWebXR应用在非受管理的全局空间中运行。

建议:添加清晰的视觉提示,以便用户能够快速在全局空间和主空间之间切换。例如,你可以为按钮使用收起和展开图标来触发转换。

让用户掌控自己的环境

在Android XR中,Environment环境是指用户佩戴XR设备时看到的真实或虚拟空间。它不受移动设备和桌面设备屏幕的物理限制。

  • 空间环境可模拟完全沉浸式的虚拟空间,取代用户的实际空间。仅适用于全屏空间。例如,用户在虚拟豪华影院中观看电影。

  • 透视环境会向用户的实际环境中添加数字元素。例如,用户打开多个大屏应用,同时查看真实的房间。

  • 系统环境:用户可以选择Android XR系统提供的环境。系统环境可在Home或Full空间中使用。如果应用未定义特定环境,则会采用系统环境。

设计多模态输入

设计可供广大用户访问的沉浸式应用至关重要。你应允许用户自定义输入法,以适应其个人偏好和能力。

为帮助你实现这一目标,Android XR支持多种输入方法,包括手和眼追踪、语音指令、蓝牙连接的键盘、传统鼠标和自适应鼠标、触控板和六自由度控制器。你的应用应自动支持所述内置模式。

请务必针对你选择的任何交互模型提供视觉或音频反馈,以确认用户操作。

  • 手部追踪功能可实现自然互动。大多数手势都应能够轻松重复执行,并且不需要长时间大幅度移动手或手臂。如果添加了虚拟手,请确保系统能够准确追踪它们。如果添加特殊手势,请使用局部范围较小的手势,而不是大范围的扫动手势。

  • 语音指令非常适合免触摸互动。用户可以通过Gemini口述文本输入内容,并通过语音指令执行特定应用互动。例如,用户可以说“打开谷歌地图”来打开相关应用。

  • 眼动追踪可实现轻松互动,例如通过注视对象来选择对象。为了尽量减少眼睛疲劳,你可以提供其他输入方法。为保护用户隐私,Android XR不会与应用共享原始眼动追踪数据。相反,当系统检测到用户正在查看可交互元素时,会使用Android界面框架中的信息显示通用悬停效果。

  • 外设。Android XR支持蓝牙键盘、鼠标和六自由度控制器等外设。对于控制器,请确保按钮映射直观,并考虑允许用户重新映射按钮以符合其偏好设置。

了解系统手势

Android XR将熟悉的移动操作扩展到了基于手势的导航系统。

用户将主要手掌朝内,捏住食指和拇指并保持不动,即可进行导航。用户将手指向上、向下、向左或向右移动,然后松开手指即可选择选项。用户可以在输入设置中设置主手偏好设置。

用户可以随时随地打开手势导航菜单,执行以下操作:

  • 返回:与 Android 移动设备上的返回堆栈一样,返回上一个项。

  • 启动器:将用户转到主屏幕。

  • 最近:用户可以打开、关闭和切换应用。

更多信息请访问这个页面

]]>
PICO 张健分享:空间计算公开标准演进之多应用支持与渲染架构 https://news.nweon.com/126523 Wed, 18 Dec 2024 01:10:03 +0000 https://news.nweon.com/126523 空间计算公开标准演进:多应用支持与渲染架构]]> 查看引用/信息源请点击:映维网Nweon

空间计算公开标准演进:多应用支持与渲染架构

映维网Nweon 2024年12月18日)之前很多XR操作系统和Runtime都依赖于自渲染应用模型。PICO认为,统一渲染应用模型在性能、隐私和质量方面具有显著优势,特别是在多应用场景中。日前,PICO Foundation工程负责人张健以《空间计算公开标准演进:多应用支持与渲染架构》为题进行了分享:

概要

将 XR 从专注全沉浸体验的娱乐设备进化为通用的空间计算平台,需要实现多个应用程序在混合现实环境中同时运行。尽管之前很多 XR 操作系统和 Runtime 依赖于自渲染应用模型(Self-Rendering Application Model),但统一渲染应用模型(Unified Rendering Application Model)在性能、隐私和质量方面具有显著优势,特别是在多应用场景中。因此,这是一个很有潜力的技术方向,值得XR行业进一步的推进。同时,我们呼吁在该领域建立开放标准,以防止生态系统的碎片化。

背景
多年以来,XR 应用程序大多是占据用户整个视野的完全沉浸式体验,如游戏。然而,混合现实(MR)和增强现实(AR)技术的进步使得 XR 应用能够运行在我们周围的现实空间里。这一演变为 XR 从全沉浸娱乐体验扩展到通用的空间计算任务打开了大门。

为了实现这一转变,XR 需要支持多个应用程序在同一时间运行,它们拥有二维或者三维的形态,可以共同存在于一个统一的三维虚拟环境中,并与使用者周围的现实世界无缝融合。然而,实现这一目标面临显著的技术挑战,而探索并解决这些挑战将会最终塑造空间计算的未来。

将 XR 从完全沉浸式体验提升到同时支持多应用体验的概念展示。左侧图像是一个全沉浸式游戏,右侧的图像展示了三个XR应用程序:桌上的计算机、墙上的时钟和地板上的全息人形。

XR 支持多应用的挑战

尽管XR应用模型支持完全沉浸式应用已经比较成熟,但将其扩展到支持多应用并没有想象的那么简单。要理解这些挑战,我们需要先了解当前XR应用的渲染方式。

典型的全沉浸XR应用渲染流程:从3D场景的立体渲染,到XR运行时的处理与合成,再到将图像呈现在XR头显屏幕上供用户观看

沉浸式XR体验背后渲染的秘密在于立体渲染。 简单来说,应用程序通过模拟摆放在人类左右眼位置的虚拟摄像机,将三维场景渲染成针对双眼的两张图像。然后这些图像会被提交给XR 运行时(XR Runtime),由操作系统显示在头显(HMD)的屏幕上,人类的大脑能够自动融合这两张图像,感知一个具有沉浸感的虚拟世界。因为每个应用程序负责自己的所有渲染任务,我们可以称之为自渲染应用模型(Self-Rendering Application Model)

如果我们只是简单沿着当前的技术路线前进,我们就会以如下图所示的方法来实现XR多应用的支持:

在当前技术路径上扩展多应用渲染的方法

每个应用程序向XR 运行时提交自己的一对图像,操作系统/合成器将这些图像合成并输出结果到头戴显示器屏幕。这种方法在当今的XR系统中常被用于层叠应用程序(Layered Applications)。例如,PICO的安全边界系统提交包含安全区域信息的图像,操作系统将其覆盖在应用程序之上以保护用户免受障碍物的影响。这套系统可以被调整用以支持多个共存的 3D 容积应用程序,我们称之为自渲染多应用。

然而,这种方法存在几个显著的挑战:

共享空间3D合成

在混合现实场景下,多个 XR 应用程序显示在共享的3D空间中,这个共享的空间对应我们周围的真实世界。每个应用程序可以作为一个 3D 体应用运行,这些体应用可能会重叠甚至相交。操作系统往往需要原生3D 模型的信息,才能实现高效,高自由度的应用间合成,仅仅靠应用提交的2D图像是不够的。举例:如下图所示,系统如何在应用程序之间实现准确的逐像素遮挡?

两个XR应用程序相交时的情况示意图。要实现逐像素遮挡(Per-Pixel Occlusion),需要的不仅仅是两张彩色图像。

分辨率管理

与占据整个视野的完全沉浸式应用不同,多应用通常只占视野的一部分, 从不同的远近和角度来观测应用, 应用覆盖视野的大小和位置都会发生改变。如果应用的渲染分辨率是固定的,那么维持该应用的清晰度一致性会是一个很大的挑战。

你或许已经在想用视口缩放(Viewport Scaling)等技术动态调整渲染分辨率来解决问题。然而深入后,你就会发现每种方法都面临各自的挑战。比如,如果我们想估计需要的分辨率,我们就需要动态计算应用在屏幕上的投影面积,这和应用渲染的内容有关,各种例子特效和GPU动画会让这个计算过程变的尤其头疼。

这一问题在包含大量文本的二维应用中尤为突出。在这些情况下,保持一致的清晰度对于确保可读性和用户体验至关重要。

多个 3D 体应用和 2D 应用投影的屏幕覆盖范围示意图

可扩展性

混合现实提供了无限的空间,可以同时运行大量空间应用。但想要实现这一点,每个应用需要在内存和性能方面尽可能轻量化。

在自渲染应用模型(Self-Rendering Application Model)中,每个应用都有自己的渲染缓冲区。这些缓冲区必须足够大,因为摄像机可能随时靠近,应用内容将填满整个屏幕。例如,如果使用4K×4K缓冲区(每只眼睛)将意味着单应用总内存成本高达384MB [4K×4K×2 (eyes) ×3(triple buffer swapchain)×4(pixel byte depth])。

此外,还有XR运行时的合成成本,即使应用渲染很简单,每个应用都会有固定的合成开销。随着活跃的应用数量的增加,这些开销也会线性增长。

多个 XR 应用围绕在我们周围的概念场景

隐私性

现代 XR 硬件配备了各种传感器,如眼动跟踪和面部跟踪等,这些传感器往往会收集敏感用户数据。因此,隐私保护比以往任何时候都更加重要,必须成为系统设计的核心考量。在自渲染应用模型中,为了实现特定的功能和用户体验,敏感数据往往不得不暴漏给应用程序,例如注视点渲染需要眼球移动数据。然而,却很难从系统层面完全防止恶意应用程序收集和滥用这些数据。

统一渲染应用模型(Unified Rendering Application Model)

幸运的是,有一种方法可以更好的解决这些挑战: 统一渲染应用模型(Unified Rendering Model)。不同于独立渲染应用,统一渲染应用本身并不直接进行渲染,而是把要渲染的内容提交给一个集中式渲染服务。该服务收集所有需要渲染的内容,在一个统一分享的渲染场景中进行渲染, 因此被称为统一渲染(Unified Rendering)。

集中式渲染服务器可以将来自不同XR应用程序的3D内容收集到一起,并在共享的3D场景中进行渲染。

与自渲染模型相比,统一渲染模型为许多上述挑战提供了更优雅的解决方案。

  • 高自由度的共享空间合成能力:由于渲染服务可以获得来自不同应用程序的所有三维对象的完整信息,因此操作系统在统一合成方面具有很高的自由度。

  • 自动的3D场景分辨率管理:对于统一渲染来说,每个应用相当于一个统一3D场景的一部分, 就如同我们在自渲染中不需要关心每个3D物体的分辨率一样,每个3D应用的分辨率是自动被支持的。

  • 低单应用开销,高可扩展性:假设我们的周围有有100个XR应用,每个应用都渲染一个简单的球体。 对于自渲染应用来说, 如前所述,由于每个应用都要独立进行渲染和合成过程,最终可能需要100份儿渲染缓冲和100次系统合成的开销。而对于统一渲染来说,这仅仅是一个有100个球体的简单3D场景,系统开销是可以共享的。

  • 隐私优先的系统设计:渲染服务是一个系统进程,可以和应用进程安全的隔离。类似注视点渲染之类的特性可以直接实现在渲染服务里,无需向应用暴漏,防止恶意应用收集和滥用隐私数据。

事实上,统一渲染模型不仅限于渲染,还可以扩展到输入、物理、网络共享等集中式模型具有优势的领域。

当然,这种方法也有不足。由于开发人员依赖系统提供的API进行渲染, 这可能在一定程度上降低了应用创建高度定制内容的自由度。此外,与已经建立了成熟开发工具生态系统的自渲染模型不同,统一渲染需要对许多工具进行更新,甚至重新设计,才能实现完备的支持。

为了更清晰地比较这两种模型的优缺点,我们在下表中进行了总结。

比较:统一渲染 vs 自渲染

比较 统一渲染 自渲染
隐私性 很多隐私数据有机会保留在系统内,不需要暴露给应用程序。比如:注视点渲染需要的眼动追踪数据,或者基于真人扫描的高真实感数字化身(Avatar) 需要与应用程序共享敏感数据,以确保功能的正常运行。 恶意应用程序可能会存储甚至上传这些数据,而检测和阻止此类行为极为困难。
应用程序开销与可扩展性 所有应用共享渲染缓冲区,开销较低。 每个应用需要专用渲染缓冲区和渲染过程。
共享空间三维合成 应用程序在同一空间渲染,场景合成自然且一致。 每个应用程序只能提供2D图像,系统的合成能力受限
一致的清晰度 自动实现 面临很多问题
共享空间功能 更容易实现共享的光照、物理等功能。 难以实现。
开发者工具 需要全新的或升级现有的工具。 已经有建立好的工具包。
开发者自由度 开发者依赖系统提供的应用程序接口,灵活度较低。 开发人员拥有完全的自定义渲染自由。
开发者主导的优化 更加依赖操作系统的性能管理和资源分配。 应用开发者可以通过投入更多精力,针对性的将其应用优化到极致,尤其是在游戏等沉浸式应用中。

未来步骤与总结

我们探讨了面向未来空间应用的两种根本不同的渲染架构,以及它们对XR多应用支持的影响。如果我们继续沿着当前路径发展,自渲染应用模型可能很自然的成为行业首选。但我们认为统一渲染模型具有显著的优势,对于构建未来XR多应用生态至关重要。

当然,这也不意味着自渲染模型应被抛弃,它仍然具有很多好处,包括成熟的工具链和更大的开发者灵活性。更有可能得是,未来两种模型将在未来共存,在生产力和多应用场景中利用统一渲染的效率,同时在类似全沉浸式游戏等高度定制和高性能的体验中保留自渲染模型的创造力。

不同于基于 OpenXR™ 框架的自渲染应用模型,统一渲染模型尚无公开的标准。若每家XR公司都开发自己的 统一渲染API,可能导致生态碎片化。因此,提前规划和倡导共享开放标准对行业来讲有很重要的意义。

作为行业的一部分,PICO 希望与社区合作,构建一个有助于创新和发展的XR统一渲染标准。我们欢迎对该主题感兴趣的任何人加入我们的讨论!对于当前尚未加入OpenXR工作组的人员,我们邀请您加入我们的聊天群组,共同协作和交流想法:

]]>
Quest Audio To Expression通过音频可实现逼真面部表情 https://news.nweon.com/126476 Mon, 16 Dec 2024 01:10:08 +0000 https://news.nweon.com/126476 Audio To Expression]]> 查看引用/信息源请点击:映维网Nweon

Audio To Expression

映维网Nweon 2024年12月16日)你可能会注意到Avatar说话时看起来像是机器人?僵硬和怪异的嘴部动作会减损体验。这种不太理想的表现是因为头显只支持嘴部动画,但缺乏支持基于视觉的面部追踪和基于音频的技术。

为了进一步解决这个问题,Meta在Horizon OS v71中纳入了Audio To Expression音频到表情。这个功能可以提供更自然的面部动画,甚至不需要基于视觉的传感器。

当你交流的时候,大多数表情都来自你脸部的其他部位,比如脸颊、眼睛、眉毛、鼻子。Audio To Expression使用应用中的音频流来生成完整的面部表情,只需声音即可,并能支持细微的肌肉动作。

Audio To Expression的工作原理

Audio To Expression利用了先进的人工智能、Meta的Face Tracking Blendshapes(支持ARKit)和麦克风音频流来提供逼真的完整面部动画。最重要的是,它只需要早期Lipsync库的一小部分开销,从而减少了内存和应用占用。

这个功能已经纳入到Movement SDK,而它主要利用面部追踪来实现用户与Avatar之间的同步面部表示。当设计角色时,你的角色模型必须有Blendshape来激活上脸。团队为XrFaceExpression2FB枚举中定义的每个Blendshape提供了一个可视化示例列表,以便你可以理解各种blendshape如何对应不同的面部表情。

Audio To Expression支持Quest 3s, Quest 3, Quest Pro和Quest 2。

Audio to Expression演示

Audio To Expression可用于各种用例,主要涉及用户之间的社交。Meta在测试和评估过程中与Arthur Technologies进行了合作:

在上面的剪辑中,你可以看到Audio To Expression在企业协作平台Arthur的应用。

Arthur Technologies实现Audio to Expression的目标是通过可视化沟通的细微差别,从而培养用户之间的同理心和信任。你可以看到这个功能所支持的自然面部表情是如何增加用户真实有效交流的能力。

除了生产力或休闲社交环境,Audio to Expression同时可以提高第一人称射击游戏等竞技游戏的吸引力。

与大多数2D数字平台相比,VR和混合现实体验提供了建立更深层次联结的机会。现在有了Audio To Expression,你有了一种更简单、更节约资源的方法来实现可信的、真实的面部表情。更多信息请访问文档(UnityUnrealOpenXR)。

]]>
2024年Meta Horizon OS的更新汇总 https://news.nweon.com/126474 Mon, 16 Dec 2024 01:10:07 +0000 https://news.nweon.com/126474 Meta Horizon OS的汇总更新]]> 查看引用/信息源请点击:映维网Nweon

Meta Horizon OS的汇总更新

映维网Nweon 2024年12月16日)2024年即将结束,而在展望2025年之前,Meta发文介绍了关于Horizon OS的一系列更新:

提供更流畅的应用内输入与改进的键盘追踪

如果输入在你的应用中扮演着重要或反复出现的角色,集成追踪键盘可以为用户提供更流畅和直观的体验,允许他们在沉浸式环境中使用物理键盘。

更新的 Tracked Keyboard API使用通用的键盘检测模型来识别用户附近的几乎任何键盘,并检测用户的手何时靠近键盘。你可以使用这个功能来:

  • 在VR中剪切出一个键盘的Passthrough透视窗口

  • 在混合现实通过UI来增强键盘

  • 为各种用例构建和定制键盘解决方案

v72为Quest 3和Quest 3S用户推出了更新后的键盘功能,而它可以在Home中与远程桌面和其他2D应用一起使用。往后,Meta将弃用以前的Tracked Keyboard API,但团队有信心全新的解决方案将为用户提供一个更加友好和有效的键盘体验。

VRC

Virtual Reality Checks(VRCs)是所有在Meta Horizon Store发行的应用程序都必须遵循的指南,涉及性能、安全性、音频等方面的要求。

团队在这个月修改了Asset.2 VRC,并封面图中的模糊更新,无源引述和定价信息等作为非允许的文本示例。如果你发行的应用目前在封面包含价格信息,你可以将其保留到2025年4月1日,届时相关文字将需要删除。

其他不允许的文本将需要在下次元数据更新时删除或编辑。如果需要一定的时间,你可以通过“Notes for the Reviewer”备注一栏请求延期至2025年4月1日。

通过Instant Placement轻松集成对象

Instant Placement是一种用于基本场景理解的机制,不依赖于场景模型,而它现在已纳入至MRUK。与基于场景模型放置对象不同,Instant Placement包括定义光线原点和方向,并在光线和环境之间的第一个交点接收信息。

尽管相关数据比使用平面、体积和网格的场景模型的表示结构更少,但特定用例是Instant Placement的理想选择,并允许你通过完全跳过系统的空间设置过程来节省时间和精力。例如,它非常适合在简单的混合现实场景中放置面板等对象。

通过Destructible Mesh隐藏和移除对象

这个MRUK功能提供了一种创建网格的机制,你可以用它来隐藏或移除应用程序中的对象或内容。这种简单的机制可以反复用于创建有趣的游戏玩法,比如在混合现实游戏中发现宝藏或隐藏的传送门。

使用Scene Decorator放置和生成资源

Scene Decorator这个先进的MRUK工具允许你使用asset装饰您的场景。你可以轻松地将随机或统一的asset(预制件和3D模型等)放置在物理空间中,以适应并对应于场景布局。这个工具允许你有选择地在地板、墙壁甚至桌面生成对象,从而为用户提供更引人入胜、更为动感的混合现实体验。

在System WebView实现改进的应用内Web体验

Android System WebView是一个预装的系统组件,它允许Android应用在不打开单独的完整浏览器实例的情况下显示Web内容。86%的Android应用和Meta Horizon Store中一系列热门应用都利用了WebView。

尽管社区一直有针对WebView性能不太理想的反馈,但现在团队发布了三年来的首次更新,对编译器和引擎进行了优化,显著改善了加载时间、稳定性、浏览器效率和兼容性。

这一版本修复了一系列已知的兼容性问题和缺失的浏览器功能,并允许WebView更容易在欣赏YouTube视频、提供最新体育比分、使用现代浏览器功能等场景中发挥作用。我们知道,许多开发者目前利用Gecko引擎来支持应用内Web内容,通过切换到v71或以上版本的WebView,你可以为每个应用程序节省50MB的CPU headspace。基于所述原因,Meta鼓励所有使用Gecko Engine或自定义WebView解决方案的开发者进行转换。

360度预览

当用户在Meta Horizon Store点击应用的产品细节页面(Product Detail Page/PDP)时,封面图片和视频预告片等创意资产可以展示你的应用效果。

现在有了360度预览功能,你可以提供一个更身临其境和更为准确的应用体验,用户可以从各个角度探索应用的特性和功能。

全新的反馈标签

你在MQDH中将注意到一个标记为“Feedback”的全新选项卡。开发者反馈对于产品优化和创新至关重要,同时可以确保你拥有创造高质量应用体验的必要工具。Meta已经在MQDH中添加了一个Feedback选项卡,允许用户提交反馈、错误和获得报告。

]]>
支持多人MR体验,Meta发布Colocation Discovery和Group Sharing https://news.nweon.com/126472 Mon, 16 Dec 2024 01:10:05 +0000 https://news.nweon.com/126472 Colocation Discovery和Group Sharing]]> 查看引用/信息源请点击:映维网Nweon

Colocation Discovery和Group Sharing

映维网Nweon 2024年12月16日)Meta日前推出全新的API,目标是帮助开发者更轻松地为同一房间的多人用户创建共享混合现实体验。

到目前为止,,使用Shared Spatial Anchors/SSA创建和加入共定位体验一直是个复杂的过程。加入一个共享体验需要用户通过大厅自组织派对,并要求主机用户与新加入的人共享所有房间锚。另外,当前的API要求开发者管理所有用户的用户ID。

现在,支持UnityUnrealOpenXR的Colocation Discovery和Group Sharing正在改变这一切。所述功能通过支持蓝牙设备发现和允许用户基于组ID共享和检索锚,从而解决了之前的摩擦点,开发者不再需要跟踪和管理用户ID。

在v71及以上版本中,Colocation Discovery和Group Sharing可以单独使用,但可以发挥很好的协同作用,以检测附近的Meta Quest设备并建立协同会话。

通过蓝牙发现附近的设备

Colocation Discovery允许应用程序在相距约30英尺的范围内发现运行相同应用的其他Quest设备。你可以通过蓝牙连接发布会话元数据,快速建立由距离很近的用户所组成的多人会话。

与典型的多人大厅UI相比,这种以位置为中心的自动组织用户方案简化了加入体验的过程。

更多信息请访问文档(UnityUnrealOpenXR)。

锚点共享变得更容易

在使用Shared Spatial Anchors API构建共定位体验时,Group Sharing有助于减少开发者的开销。以前,应用程序需要跟踪每个用户的用户ID,然后使用ID共享每个空间锚。随着新用户加入一个会话,随着更多的空间锚点共享出去,应用需要负责跟踪与每个用户共享的空间锚点。

通过允许所有用户空间锚点分享到代表整个用户组的唯一标识符,Group Sharing消除了这种特定于用户的跟踪需求。这意味着你不再需要依赖API来检索用户ID并将它们与每个应用实例通信。另外,随着更多空间锚点的添加,它们只需要共享一次即可,用户可以使用唯一的组ID查询与组共享的所有锚点。

表示组的唯一标识符(GUID)由应用定义,与任何用户身份无关,只需要与每个应用实例通信一次。

更多信息请访问文档(UnityUnrealOpenXR)。

组合在一起

尽管可以单独部署Colocation Discovery和Group Sharing,但同时使用这两个API可以帮助用户快速进入共定位体验,同时最大限度地降低复杂性和开销。所述API消除了用户手动确定的需要,并且随着越来越多的用户加入和共享越来越多的锚点,它们可以减少共享空间锚点所需的bookkeeping。

]]>
谷歌已经发布Android XR SDK开发者预览版 https://news.nweon.com/126403 Fri, 13 Dec 2024 01:00:07 +0000 https://news.nweon.com/126403 Android XR SDK的开发者预览版]]> 查看引用/信息源请点击:映维网Nweon

Android XR SDK的开发者预览版

映维网Nweon 2024年12月13日谷歌已经发布了Android XR SDK的开发者预览版,并表示这个全面的Android XR开发工具包是Android家族为扩展现实头显及未来眼镜设备打造的全新开发平台。

这家公司进一步指出,利用专为XR创建但又十分熟悉Android API、工具和开放标准,你将有无限的机会创建和开发融合数字和物理世界的体验。所有这一切都意味着:如果你为Android开发,你已经在为XR开发内容。

利用Android XR SDK,你可以:

  • 通过丰富的3D元素、空间面板和空间音频将你的应用空间化,从而带来自然的深度感、规模感和有形的现实感,从而摆脱传统的屏幕限制

  • 将用户传送到一个梦幻般的虚拟空间

  • 利用自然的、多模态交互能力,比如手+眼

Android XR SDK以现有的Android应用开发作为基础,而谷歌同时把Play Store引入了Android XR,这意味着大多数Android应用自动可用,无需任何额外的开发工作。用户将能够在一个全新的维度发现和使用现有的应用。默认启用,但开发者可以选择退出。

Android XR SDK适合使用一系列不同工具的开发者:

  • 用Kotlin和Android Studio构建内容?Jetpack XR SDK是一套熟悉的库和工具,可简化开发并加快生产力。

  • 使用Unity的实时3D引擎?Unity的Android XR扩展提供了构建或移植强大沉浸式体验所需的软件包。

  • Web开发?使用WebXR添加Chrome支持的沉浸式体验。

  • 使用像C/ c++这样的本地语言?Android XR支持OpenXR 1.1标准。

使用Jetpack XR SDK

Jetpack XR SDK包括专门为XR构建的新Jetpack库,其中的亮点包括:

  • Jetpack Compose for XR:你能够创建空间UI布局和空间化现有的2D UI

  • Material Design for XR:包括组件和布局,可自动适应XR

  • Jetpack SceneCore:为构建自定义3D体验提供了基础

  • ARCore为Jetpack XR带来了强大的感知能力

更多使用Jetpack XR SDK进行开发的更多信息请访问这个页面

谷歌同时在Android Studio Meerkat的最新预览版中引入了新的工具和功能,以提高生产力并简化Android XR的创建过程。

  • 使用全新的Android XR模拟器创建一个虚拟XR设备,以用于部署和测试使用Jetpack XR SDK构建的应用程序。这个模拟器包括特定于XR的控件,可用于使用键盘和鼠标来导航仿真的虚拟空间。

  • 使用Android XR模板来快速启动使用Jetpack Compose for XR创建应用。

  • 使用更新的布局检查器来检查和调试使用Jetpack Compose创建的空间化UI组件。

更多信息请访问这个页面

Unity

谷歌已经与Unity进行了合作,从Unity 6开始将他们的实时3D引擎与Android XR原生集成。Unity推出了Unity OpenXR: Android XR包,从而为Android XR带来多平台XR体验。

Unity正在为热门的XR包添加Android XR支持:

  • OpenXR

  • AR Foundation

  • XR Interaction Toolkit

  • XR Hands

  • XR Composition Layers

团队同时提出了Android XR Extensions for Unity,包含示例和创新功能,如鼠标交互配置文件,环境混合模式,个性化手网格,对象跟踪等等。

]]>
研发实战: Meta分享如何识别和防止Quest应用崩溃 https://news.nweon.com/126373 Thu, 12 Dec 2024 01:00:04 +0000 https://news.nweon.com/126373 如何识别和防止应用崩溃]]> 查看引用/信息源请点击:映维网Nweon

如何识别和防止应用崩溃

映维网Nweon 2024年12月12日)如何识别和防止应用崩溃是开发者关注的一个重点。日前,Meta就这方面进行了发文讲解:

我们来谈谈应用崩溃。

你努力开发应用并将其带到Meta Horizon Store,但一个影响用户满意度的“无声杀手”可能会让你的努力泡汤:崩溃。它们是意想不到的小问题,会破坏用户体验,损害你的应用声誉,并最终影响你的成功。

下面我们来谈谈应该如何处理崩溃,以及如何在识别、预防和减轻常见崩溃的帮助下减少它们的影响。

崩溃成本

当用户下载你的应用时,他们希望你的应用能够无缝地运行。无论是何种体验,崩溃都会损害用户体验。在当今快节奏的数字世界中,一次令人沮丧的崩溃可能会导致用户完全放弃你的应用,他们可能不会再给它第二次机会。

商店评级同样重要,当崩溃发生时,它们会迅速导致满意度下降和负面评价。崩溃是获得负面评价的最快方式之一,它会影响你的整体评级并阻碍新下载。当其他用户看到对不稳定性的抱怨时,他们可能会离开,从而影响你的收入和增长。

监控和诊断崩溃

在开发者仪表板中,你会发现一个崩溃分析仪表板,所以你能够监控应用级别的崩溃,并使用不同的过滤器进行分析。你同时可以设置分析警报,将其配置成出现崩溃趋势变化时通知你。你同时可以使用symbolication工具诊断崩溃,在崩溃分析中查看堆栈跟踪。

减轻崩溃影响

减轻崩溃影响的一个有效策略是回滚导致崩溃的Build。这可以确保用户在进行修复时不会受到不良体验的影响。你可以在崩溃指南中找到相关说明。

明年年初,Meta将推出一个允许你分阶段逐步推出应用的新工具,这样你就可以在它们影响到广大用户之前识别和解决意想不到的漏洞和问题。

解决常见崩溃

有几个常见的崩溃类别,每个类别都有独特的特征。Java崩溃包括NPE和OOM等。本机崩溃包括内存损坏和无效的函数调用等。应用无响应(ANR)崩溃是由于主线程的长时间操作或本机崩溃等问题造成。当系统的可用RAM不足并根据优先级终止进程时,就会发生LMK崩溃。了解崩溃类型可以帮助优化应用性能并防止意外终止。

以下是你可以用来解决这类崩溃的技巧:

  • Java崩溃:处理堆栈溢出错误和内存不足错误等问题。
  • 本机崩溃:处理内存损坏和无效的函数调用等问题。
  • ANR:避免主线程长时间运行的操作。
  • LMK:优化内存使用,实现高效的内存管理策略。

你同时可以使用adb logcat文件来了解有关应用崩溃的更多信息并找到其根本原因。要获得额外的支持,请尝试利用第三方工具,如 GNU debugger (gdb)来了解应用在崩溃时正在执行的操作。

最终的想法

稳定是成功的基础。解决崩溃问题可能没有构建闪亮新功能那么令人兴奋,但相信我们,你的用户(以及未来的自己)会感谢你的。通过创造一款稳定、可靠的应用,你不仅可以避免崩溃,而且可以创造一款人们愿意使用、使用并推荐给朋友的产品。

]]>
Meta分享Haptics SDK跨平台支持以及对OpenXR手骨架ISDK支持 https://news.nweon.com/126307 Mon, 09 Dec 2024 01:12:04 +0000 https://news.nweon.com/126307 对Haptics SDK和Meta Haptics Studio的跨平台支持;以及对OpenXR手骨架的Interaction SDK(ISDK) 支持]]> 查看引用/信息源请点击:映维网Nweon

对Haptics SDK和Meta Haptics Studio的跨平台支持;以及对OpenXR手骨架的Interaction SDK(ISDK) 支持

映维网Nweon 2024年12月09日)在开发沉浸式应用时,为了实现一致的高质量体验,开发者通常会在不同的平台之间切换。维护和测试通常是耗时的过程,特别是针对多个平台时。

针对这个问题,Meta分享了两个功能更新:对Haptics SDK和Meta Haptics Studio的跨平台支持;以及对OpenXR手骨架的Interaction SDK(ISDK) 支持。

下文将介绍如何在Meta Quest,PCVR和其他设备利用所述功能:

Meta Haptics SDK的跨平台触觉集成

Haptics SDK (Unity | Unreal)这个包在运行时检测控制器类型,并优化触觉渲染,以最大限度地提高控制器提供触觉反馈的能力。

Meta Haptics Studio和Meta Haptics SDK (v69)现在已经纳入了跨平台触觉支持:使用Meta Haptic Studio设计的触觉现在可以在Quest, PCVR, iOS和其他VR平台重复使用,允许你以 .haptic, .ahap和.wav等格式导出触觉文件。这种灵活性消除了重新设计asset的需要,从而实现了跨各种平台的无缝集成。

长期以来,开发者一直表示需要统一的方法来管理跨PCVR和Meta Quest平台的应用集成。尽管对触觉的跨平台支持并不能解决所有整合挑战,但这种解决方案的优势已经开始显现,比如BigBox VR的《POPULATION: ONE》 和Toast Interactive的《Max Mustard》。

BigBox VR团队的一名开发者表示:“维护不同的代码库是一个非常大的障碍。有了对触觉的跨平台支持,BigBox VR的开发者能够简化过程,腾出更多时间专注于增强用户体验,无需重复工作的负担。“

在《POPULATION: ONE》中,Meta Haptics Studio在重新设计武器和其他带有高级触觉的交互方面发挥了关键作用。现在,玩家可以体验到更加身临其境的游戏玩法和整体体验,因为可以感受到细致的触觉反馈。

对于BigBox VR团队来说,跨平台支持的整合具有变革意义。Meta Haptics SDK减少了分支代码的数量,并在所有目标平台保持了通用的集成点,从而简化了这一过程。一位团队成员表示:“易于集成和减少维护允许我们能够专注于创造力。”

有了更多的时间和精力用于创造性的追求,团队现在可以提供一种卓越的体验:“我们可以编写一次触觉,并知道它们将会在我们支持的其他VR头显里忠实地重现。在过去,我们必须付出大量精力来实现这一点。”

对于Toast Interactive而言,Meta Haptics Studio和Haptics SDK允许他们立即在利用他们的触觉片段,并将用户扩展到主机VR体验。

团队分享到:“大多数关于《Max Mustard》的评论都提到了触觉的质量。幸运的是,当我们使用Haptics Studio时,触觉是‘做一次,做正确’的情况。”

更多信息请访问Meta Haptics Studio和Haptics SDK (Unity | Unreal)。

介绍ISDK OpenXR手骨架

从v71开始,ISDK和Core SDK增加了对OpenXR手骨架的支持。从历史上看,Core SDK中提供的手骨架是一种专有格式,并称为OVR手骨架。这个OVR骨架早于OpenXR手骨架标准,所以在诸多关节、关节位置和关节方向方面与OpenXR标准不同。

现在,v71版本的ISDK增加了对OpenXR手骨架的端到端支持。

这一变化提高了与符合OpenXR行业标准的包、asset和脚本的兼容性,并通过遵循Unity的XR Hands包提供的手骨架格式增强了跨平台支持。简而言之,通过利用ISDK在多个平台的高质量直观交互,你可以节省时间并在用户体验之间创建一致性。

尽管Meta之前已在v67中推出了对Unity XR和XR Hands的支持,但ISDK依然依赖于OVR框架。来自Unity XR Hands的骨架数据在ISDK数据源层简单地从OpenXR转换为OVR格式。由于在一个项目中同时拥有和支持两种框架格式所固有的问题,团队的长期目标始终是将ISDK完全转换为OpenXR标准。更多信息请访问Interaction SDK文档并下载Core SDK

]]>