- 博客(65)
- 收藏
- 关注
原创 【重制版】Unity Meta Quest 一体机开发(一):前期准备,Meta XR SDK导入和环境配置,配置玩家物体
这期教程我将介绍使用 Unity 开发 Meta Quest 应用的前期准备,Meta XR SDK 导入 Unity 和环境配置,以及如何配置玩家物体。
2024-05-22 20:37:40 462
原创 Unity Meta Quest MR 开发(七):使用 Stencil Test 模板测试制作可以在虚拟与现实之间穿梭的 MR 传送门
这期教程我将介绍如何使用 Stencil Test 模板测试,来制作可以在虚拟与现实之间穿梭的 MR 传送门。在上一期制作虚拟门窗的教程中,我们介绍了一种 Depth Only Shader,它能够让物体不显示颜色,但是能够参与到深度测试中。而这期教程,我们会介绍另外一种 Shader,也是能实现在现实中透视出一块虚拟区域的效果。这种 Shader 叫做 Stencil Shader,它与 Stencil Test,也就是模板测试有关。
2024-04-25 16:20:30 1051
原创 Unity Meta Quest MR 开发(六):将现实的门窗替换成虚拟的门窗,实现虚拟场景与现实空间的融合【局部透视 | MR 门窗效果】
这期教程我将介绍如何实现 MR 门窗效果。我会教大家如何把现实的门窗替换成虚拟的门窗,实现虚拟场景与现实空间的融合,也就是局部透视的效果,那么我们就可以透过虚拟的门窗看到位于现实房间之外的虚拟世界。
2024-04-09 00:15:23 1418
原创 Unity Meta Quest MR 开发(五):空间锚点
这期教程我将会介绍 Unity 的 Meta XR SDK 中的空间锚点的作用以及使用方式。空间锚点可以把虚拟物体锚定在虚拟世界或者现实世界中的某个位置,即使重新戴上头显或者重新打开应用,锚定过的物体仍然能够出现在前一次锚定的位置。
2024-04-04 20:03:34 714
原创 Unity Meta XR SDK 快捷配置开发工具【Building Block/Quick Action/OVRCameraRigInteraction】
这期教程我将会介绍 Unity Meta XR SDK 中提供的快捷配置开发工具分别是 Building Block,Quick Action 和 OVRCameraRigInteraction。使用快捷开发工具能够快速地配置出 SDK 中的一些功能,省下了手动配置的时间,能够大大地加快开发速度,降低开发难度。
2024-02-22 22:43:29 1639
原创 Unity Meta Quest MR 开发(四):使用 Scene API 和 Depth API 实现深度识别和环境遮挡
这期教程我将会介绍如何在 Unity 中,分别利用 Meta XR SDK 中的 Scene API 和 Depth API,来实现现实物体遮挡位于后方的虚拟物体的效果。
2024-02-11 22:40:42 2050 1
原创 Unity Meta Quest MR 开发(三):Scene API 配置+实现虚拟与现实之间的碰撞
这期教程我将会介绍如何在 Unity 中,利用 Meta XR SDK 中的 Scene API,去使用 Meta Quest 中的空间设置和场景理解功能。最后我们会实现一个弹球 Demo,当虚拟小球碰撞到现实物体上会有反弹效果。
2024-02-03 00:19:38 1954 2
原创 【新】Unity Meta Quest MR 开发(二):场景理解 Scene API 知识点
这期教程我将会介绍如何在 Meta Quest 的场景理解功能,Meta 使用的是 Scene API,来对现实环境进行识别和重建,最终实现虚拟物体和现实物体之间的交互。
2024-01-23 13:54:03 1204 1
原创 【新】Unity Meta Quest MR 开发(一):Passthrough 透视配置
这期教程我将会介绍如何在 Unity 中,利用 Meta XR SDK,去配置 Meta Quest 中的 Passthrough 透视功能。通过 Quest 的视频透视(VST)技术,我们能够戴上头显看到一个虚拟与现实互相融合的世界。因此开启透视是开发 Quest MR 功能最基本的步骤。通过这期教程的配置,我们能够戴上头显看到现实环境,并且能够看到现实环境中的虚拟物体。
2024-01-15 22:58:39 2051 10
原创 Unity Meta Quest 一体机开发(十三):【手势追踪】自定义交互事件 EventWrapper
这篇教程将会介绍如何用 Meta XR SDK,自定义交互事件触发时执行的逻辑。最后会实现一个功能:用手指点击 UI 按钮后,在前方召唤一把剑。
2024-01-11 21:45:44 1613 1
原创 Unity Meta Quest 一体机开发(十二):【手势追踪】Poke 交互 - 用手指点击由 3D 物体制作的 UI 按钮
这篇教程将会介绍如何用 Meta 的 Interaction SDK,配置 Poke 交互,实现用手指点击 UI 按钮的功能,并且能够推动 UI 按钮,UI 按钮由 3D 物体制作而成
2023-12-29 21:14:05 2331
原创 Unity Meta Quest 一体机开发(十一):【手势追踪】远距离抓取
这篇教程将会介绍如何用 Meta 的 Interaction SDK,将远处的物体抓取到手上。
2023-12-15 14:40:02 1520
原创 Unity Meta Quest 一体机开发(九):【手势追踪】通过录制抓取手势实现自定义抓取姿势
这篇教程将会介绍 Meta 开发 SDK 如何录制抓取手势
2023-12-04 17:00:45 1761
原创 Unity Meta Quest 一体机开发(八):【手势追踪】实现 Hand Grab 扔物体功能
这篇教程将会介绍如何在能够抓取物体的基础上实现扔物体的物理效果。
2023-11-27 23:34:24 1308
原创 Unity Meta Quest 一体机开发(七)【手势追踪】:配置玩家 Hand Grab 功能
上期教程我们介绍了 Meta XR SDK 中 Hand Grab 交互中的重要知识点,这篇教程将会介绍如何将 Hand Grab 交互应用到我们自己的项目中。
2023-11-19 23:26:14 1074
原创 Unity Meta Quest 一体机开发(六):【手势追踪】HandGrabInteractor 和 HandGrabInteractable 知识点
这篇教程将会详细介绍 Meta XR SDK 中 HandGrabInteractor 和 HandGrabInteractable 的相关知识点。
2023-11-15 15:11:44 662
原创 Unity Meta Quest 一体机开发(三):【手势追踪】Oculus Integration/Meta XR SDK 基本原理、概念与结构+玩家角色基本配置
Oculus Integration/Meta XR SDK 基本原理、概念与结构+玩家角色基本配置
2023-10-29 00:24:58 2575
原创 Unity SteamVR 开发教程:用摇杆/触摸板控制人物持续移动(2.x 以上版本)
持续移动是 VR 开发中的一个常用功能。一般是用户推动手柄摇杆,或者触摸手柄触摸板,来控制人物持续地移动。Unity SteamVR 插件中只提供了传送的移动功能,而没有用摇杆或触摸板控制人物持续移动的功能。因此,持续移动的功能需要我们自己开发。
2023-09-16 15:40:39 4111 3
原创 Unity SteamVR 开发教程:SteamVR Input 输入系统(2.x 以上版本)
输入系统是 VR 开发中非常重要的一部分。我们通常需要获取 VR 手柄上某个按键的输入,然后将其作用到应用中,比如按下手柄的 Grip 键进行抓取,就需要在检测到“按下手柄 Grip 键”的输入操作时,执行抓取的行为。SteamVR 插件是 Valve 提供给 Unity 开发者的用于开发 PCVR (头显与电脑串流的形式)的插件。本教程将介绍 SteamVR 的输入系统。
2023-09-12 17:46:25 4468 4
原创 Unity Meta Quest MR 开发教程:(二)自定义透视 Passthrough【透视功能进阶】
Unity Meta Quest MR 开发教程:自定义透视,包括控制透视的开启和关闭,调整透视风格,局部透视等功能。
2023-08-26 16:40:41 3215 7
原创 Unity VR:XR Interaction Toolkit 输入系统(Input System):获取手柄的输入
XR Interaction Toolkit 推荐使用 Unity 的 Input System 来接收设备的输入。它将输入设备和动作逻辑互相分离,通过配置映射来处理输入信息。我们只需要提前配置好动作和输入的映射关系,在代码中把重心放在逻辑处理上,也就是检测到输入后要做的事情,将其与配置的动作相关联。而设备输入的监听交给了系统本身。当监听到设备输入时,视为触发了输入所绑定的动作,便会触发动作发生后需要做的事情。
2023-08-20 13:58:59 7244 5
原创 Unity XR Interaction Toolkit 组件解析(二)Select Action Trigger 参数(State,State Change,Toggle, Sticky)
XR Direct Interactor 脚本和 XR Ray Interactor 脚本中 Select Action Trigger 的参数(State,State Change,Toggle,Sticky)区别
2023-07-15 21:12:21 825 2
原创 Unity VR 开发教程 OpenXR+XR Interaction Toolkit(九)根据不同物体匹配对应的抓取手势
往期教程中,我们学习了 VR 中的抓取功能,当时抓取的姿势仅仅是使用了简单的动画,和按下手柄 Grip 键触发的手部动画是一样的。但是如果想要提升游戏的沉浸感,抓取不同形状、不同大小的物体应该具有不同的抓取姿势,比如抓一个球和抓一根棍子可能会用不同的姿势。那么这篇教程,我将介绍如何实现抓取一个物体时手部呈现出与之匹配的抓取姿势。
2023-07-14 23:34:32 7209 10
原创 Unity Meta Quest 一体机开发(四):Oculus Integration/Meta XR SDK 中 Eye Level,Floor Level,Stage 的区别
Oculus Integration 开发包中有个 OVRManager 脚本被挂载到 OVRCameraRig 物体上。OVR Manager 中有个 Tracking Origin Type 参数,它相当于追踪的参考系,参数分为 Eye Level, Floor Level 和 Stage。
2023-07-08 20:28:18 2020
原创 Unity Meta Quest MR 开发教程:(一)混合现实 MR 透视 Passthrough 环境配置
Unity Meta Quest 混合现实 MR 透视 Passthrough 开发环境配置
2023-07-01 20:57:55 4854 8
原创 Unity VR:XR Interaction Toolkit 官方 Demo
Unity XR Interaction Toolkit 提供了一个官方 Demo,包含了丰富的功能演示,可以供大家更好地学习 VR 开发。
2023-06-29 13:05:13 1339 5
原创 Unity VR 开发教程 OpenXR+XR Interaction Toolkit(八)手指触控 Poke Interaction
在 VR 交互中,手指触控也是一种常见的交互方式,比如直接用手指去戳按钮、用手指滑动 UI 等。这种交互方式用英文表示就是 Poke Interaction。XR Interaction Toolkit 从 2.3.0 版本开始增加了对 Poke 功能的支持。这篇教程,我将介绍一下如何实现 Poke Interaction。
2023-06-28 23:36:46 5406 8
原创 Unity VR 开发教程 OpenXR+XR Interaction Toolkit 番外(一)用 Grip 键, Trigger 键和摇杆控制手部动画
在大部分 VR 游戏中,手部的动画通常是由手柄的三个按键来控制的。比如 Grip 键控制中指、无名指、小拇指的弯曲,Trigger 键控制食指的弯曲,触摸摇杆控制大拇指的弯曲。这个教程,我将介绍如何利用这三个按键的输入来控制手部动画。
2023-05-16 15:58:33 4017 4
原创 VRIK+Unity XR Interaction Toolkit 配置 VR 全身模型(下):实现腿部行走动画
上一篇我们通过配置VRIK + Unity XR Interaction Toolkit 实现了 VR 全身模型上半身的追踪。这篇教程,我将介绍如何实现腿部行走的动画。
2023-05-07 23:35:15 2341 22
原创 VRIK+Unity XR Interaction Toolkit 配置 VR 全身模型(上):实现上半身的追踪(附带VRM模型导入Unity方法和手腕扭曲的解决方法)
IK(反向动力学)有利于提升 VR 应用中的沉浸感,我们可以通过 IK 实现 VR 中全身模型的追踪。本篇教程将基于 Unity 的 XR Interaction Toolkit 和 Final IK 插件中的 VRIK 功能介绍如何模拟 VR 中人物上半身的运动,特别是手臂和手肘的姿态。
2023-03-19 12:18:00 6296 4
原创 Unity HurricaneVR 插件中的 VRIK 设置
IK(反向动力学)有利于提升 VR 应用中的沉浸感,比如我们可以通过对手部的追踪,再结合 IK,来模拟 VR 中人物的手臂和手肘的姿态。本篇博客将介绍如何设置 Hurricane VR 插件中的 VRIK。
2023-01-23 13:56:43 2945
原创 Unity VR 开发教程: Meta Quest 一体机开发 (一) 环境配置(基于 Oculus Integration v46)
用 Unity 开发 Meta Quest 一体机应用的基础环境配置教程
2022-11-25 00:26:26 5856 18
原创 Unity VR 开发教程 OpenXR+XR Interaction Toolkit(七)射线抓取
VR 中的抓取功能除了近距离地与物体接触将其抓起(我把它称为 “直接抓取”)之外,还有一种通过射线抓取的方式。当射线射到物体上时,按下抓取键就能将其抓起。本篇教程,我将介绍如何用 XR Interaction Toolkit 实现射线抓取。
2022-11-19 15:43:32 8499 13
原创 Unity VR 开发教程 OpenXR+XR Interaction Toolkit (六)手与物品交互(触摸、抓取)
交互一般需要两个对象:一个是可交互的对象(Interactable),一个是发起交互的对象(Interactor,一般是玩家自己)。本系列教程中的传送功能也是交互的一种方式,可传送的地面是可交互的对象,手部发出的传送射线是发起交互的对象。而这篇教程将要介绍的是如何在 VR 世界中直接用双手与物品进行交互,此时物品是可交互的对象,手是发起交互的对象。
2022-11-03 15:02:03 19755 54
原创 Unity XR Interaction Toolkit 组件解析(一)Action-based 和 Device-based 的区别
XR Input Subsystem 使用起来更加简单,但是动作与设备按键的绑定是无法修改的,Input System 可以自由配置动作和按键的映射关系,灵活性更高。而 Device-based 对应的是 XR Input Subsystem,Action-based 对应的是 Input System
2022-10-24 23:56:35 3467
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人