demo场景的简介

demo场景的简介

以下是可用演示场景的简述,以及它们使用和演示的主要组件

demo场景名称描述
AvatarsDemo / KinectAvatarsDemo1从第三人称的角度展示用户控制的两个模型。场景使用KinectManager组件管理传感器和数据,AvatarController组件控制每个模型,KinectGesture和SimpleGestureListener组件提供手势检测。
AvatarsDemo / KinectAvatarsDemo2从第一人称的角度演示了控制模型。该场景使用KinectManager组件管理传感器和数据,使用FaceTrackingManager组件获得更精确的头部定位数据,使用AvatarController组件控制模型。
AvatarsDemo / KinectAvatarsDemo3该场景利用AvatarControllerClassic仅控制上身)和offset节点使虚拟角色相对于游戏对象运动。场景利用KinectManager管理传感器和数据,并利用AvatarControllerClassic仅控制虚拟模型的上身。
BackgroundRemovalDemo / KinectBackgroundRemoval1演示Kinect背景删除功能,即如何仅显示用户身体轮廓。场景利用KinectManager管理传感器和数据,并利用BackgroundRemovalManager管理背景去除并在主相机GUI层上显示前景图像(即切出的轮廓)。
BackgroundRemovalDemo / KinectBackgroundRemoval2显示如何将用户轮廓设置为第二背景层并将3D对象放置在其后或前。该场景使用KinectManager管理传感器和数据,使用BackgroundRemovalManager管理背景去除,并使用ForegroundToImage设置BackgroundImage2的纹理。该场景还利用FacetrackingManager获取精确的头部位置数据,还利用ModelHatController将光晕与用户的头部一起移动。
BackgroundRemovalDemo / KinectBackgroundRemoval3如何利用单独的图层和摄影机在用户轮廓“后”显示对象和图像效果。场景使用KinectManager-组件管理传感器和数据,使用BackgroundRemovalManager-组件管理背景去除,并使用ForegroundBlender-组件混合背景和前景纹理。
BackgroundRemovalDemo / KinectBackgroundRemoval4在这里,背景去除的结果反转了。用户剪影是透明的,而Kinect捕获的背景是可见的。场景使用KinectManager-组件管理传感器和数据,使用BackgroundRemovalManager-组件管理背景去除,还可以使用ForegroundBlender-组件混合背景和前景纹理(对于Kinect-v1)。
BackgroundRemoveDemo / KinectBackgroundRemoval5该演示为背景去除图像增加了深度。用户剪影根据用户在传感器前面的位置在场景中四处移动。场景利用KinectManager-组件管理传感器和数据,BackgroundRemovalManager-组件管理背景去除,ForegroundToRenderer- 组件设置UserImage对象的纹理,以及UserPlaneMover- 组件在场景中移动UserImage对象。 。
ColliderDemo / ColorColliderDemo演示用户手和场景对象之间的“虚拟触摸”触发器。该场景利用KinectManager-组件管理传感器和数据,使用HandColorOverlayer-组件移动具有碰撞器的手重叠手球,并使用JumpTrigger-组件使碰撞的对象跳跃。这些手球触发与其他现场对象的碰撞。
ColliderDemo /DepthColliderDemo2D它显示了您的轮廓如何与2D场景中的虚拟对象进行交互。该场景使用KinectManager-组件管理传感器和数据,使用DepthSpriteViewer-组件显示深度图像并创建覆盖的骨骼碰撞器,使用EggSpawner-组件在场景中生成虚拟对象(球体)。
ColliderDemo /DepthColliderDemo3D它显示了您的轮廓如何与3D场景中的虚拟对象进行交互。该场景使用KinectManager-组件管理传感器和数据,使用DepthImageViewer-组件显示深度图像并创建覆盖的骨骼碰撞器,使用EggSpawner-组件在场景中生成虚拟对象(鸡蛋)。
FaceTrackingDemo / KinectFaceTrackingDemo1显示如何控制Kinect生成的面部模型(是否带纹理),以及可选地将真实用户面部覆盖在屏幕上。现场利用KinectManager -component来管理传感器和数据,FacetrackingManager -component控制脸部模型,和了setBackgroundImage -component上显示的BackgroundImage彩色相机馈送。
FaceTrackingDemo / KinectFaceTrackingDemo2演示如何与用户的头部一起移动虚拟对象(帽子)。现场利用KinectManager -component来管理传感器和数据,FacetrackingManager -component获得精确的头部位置和定向数据,ModelHatController -component来控制虚拟对象的变换,和了setBackgroundImage -component上显示的BackgroundImage彩色相机馈送。
FaceTrackingDemo / KinectFaceTrackingDemo3它使用用户脸对场景中的对象进行纹理处理。结果,用户的头部在场景中替换了模型的头部。场景使用KinectManager-组件管理传感器和数据,FacetrackingManager-组件获取精确的头部位置数据,BackgroundRemovalManager 创建具有模糊边缘的用户图像,以及SetFaceTexture-组件显示面部图像。
FaceTrackingDemo / KinectFaceTrackingDemo4显示装配的头部模型如何在屏幕上覆盖真实的用户面部。根据跟踪的面部动画单位(AU),它还控制装配模型的面部表情。现场利用KinectManager -component来管理传感器和数据,FacetrackingManager -component管理的头部和面部数据,ModelFaceController -component以控制被操纵脸部模型,和了setBackgroundImage -component上显示的BackgroundImage彩色相机馈送。
FittingRoomDemo / KinectFittingRoom1这是主要的更衣室演示场景。它演示了如何使用校准姿势,模型叠加以及与彩色相机馈送的融合以及与Unity UI的交互以及制作图片。该场景使用KinectManager-组件管理传感器和数据,KinectGestures-组件检测用户手势,InteractionManager-组件管理与UI的用户交互,InteractionInputModule 将该用户交互传递给Unity事件系统,OverlayController-组件显示彩色摄像头基于BackgroundImage,CategorySelector- 用于管理模型类别的组件,ModelSelector-component管理模式菜单人口和模式选择,PhotoShooter -component来管理照片拍摄,并UserBodyBlender -component融为一体用彩色摄像机饲料服装模特。为了仅列出适当的服装类别,有两个可选组件可检测用户的年龄和性别:CloudFaceManager 和CloudFaceDetector 。
FittingRoomDemo / KinectFittingRoom2这是第二个更衣室的演示场景。它显示了一般人形模型(例如Ironman,灰姑娘,忍者神龟等)如何在屏幕上覆盖用户的身体。场景使用KinectManager-组件管理传感器和数据,KinectGestures-组件检测用户手势,AvatarController-组件控制模型,[AvatarScaler]http://192.168.10.100:8181/docs/k2doc/avatar-scaler “AvatarScaler”-组件根据用户尺寸缩放模型,OverlayController-组件显示彩色摄像头提供BackgroundImage以及可选的UserBodyBlender-组件,以将人形模型与彩色相机提要混合。
GesturesDemo / KinectGesturesDemo1演示检测用于控制演示多维数据集的离散手势(此处为手挥动)。场景使用KinectManager-组件管理传感器和数据,使用KinectGestures-组件检测用户手势,使用CubeGestureListener-组件设置和监听滑动手势,并使用CubePresentationScript-组件控制表示多维数据集。
GesturesDemo / KinectGesturesDemo2演示对连续手势(此处为滚轮,缩小和放大)的检测,用于旋转和缩放3D模型。该场景使用KinectManager-组件管理传感器和数据,使用KinectGestures-组件检测用户手势,使用ModelGestureListener-组件设置和监听滚轮和缩放手势,使用ModelPresentationScript-组件控制场景中的3D模型。
GesturesDemo / VisualGesturesDemo在这里,您可以看到如何检测和使用视觉手势(此处为“坐姿”手势),即使用Visual Gesture Builder创建的手势。该场景利用KinectManager组件管理传感器和数据,使用VisualGestureManager 组件检测视觉手势,并使用SimpleVisualGestureListener组件侦听检测到的离散和连续视觉手势。
InteractionDemo / KinectInteractionDemo1它通过抓握,释放,按下和单击的方式演示了手形光标的控制和手部交互。该场景利用KinectManager-组件管理传感器和数据,使用InteractionManager-组件管理手形光标和用户交互,使用GrabDropScript-组件控制(拖放)场景中的虚拟对象,并使用InteractionInputModule 将用户交互传达到Unity事件系统。
InteractionDemo / KinectInteractionDemo2显示如何使用手部互动来全方位抓握和旋转虚拟对象。该场景使用KinectManager-组件管理传感器和数据,使用InteractionManager-组件管理手形光标和用户交互,并使用GrabRotateScript- 组件在场景中抓握和旋转HandleObject。
KinectDataServer / KinectDataServer这不是演示场景,而是Kinect数据服务器,与“ Kinect-v2 VR实例”程序包的所有演示场景中的KinectDataClient组件结合使用。现场利用KinectManager -component来管理传感器和数据,KinectDataServer组分通过网络来管理客户端-服务器通信,VisualGestureManager -component检测视觉手势和SpeechManager 管理Kinect的语音识别。
MovieSequenceDemo / KinectMovieDemo该演示场景展示了如何在用户位置位于传感器前面的情况下控制一组电影帧,仅产生简短的前后播放视频。场景利用KinectManager-组件管理传感器和数据,并利用UserMovieSequence-组件根据当前用户位置设置当前电影帧。
MultiSceneDemo / Scene0-StartupScene,Scene1-AvatarsDemo和Scene2-GesturesDemo演示如何在多个场景中使用KinectManager和其他Kinect相关组件。这组场景使用KinectManager-组件管理传感器和数据,使用KinectGestures- 组件检测用户手势,使用启动场景中的LoadFirstLevel组件加载第一个真实场景,使用真实场景中的LoadLevelWithDelay-Component在场景之间循环,和LocateAvatarsAndGestureListeners-component刷新当前场景的KinectManager列表。其他与Kinect相关的组件,例如AvatarController ,InteractionManager 和KinectGestures 在实际场景(1&2)中使用了“动态图像”,但它们与各自的场景细节有关,而不是在多个场景中使用单个KinectManager
OverlayDemo / KinectOverlayDemo1这是基本的联合叠加演示,展示了虚拟球如何在屏幕上覆盖用户的右手。场景利用KinectManager-组件管理传感器和数据,并利用JointOverlayer-组件将跟踪的用户的给定身体关节与给定的虚拟对象叠加在一起,并有选择地在场景背景上显示彩色摄像头。
OverlayDemo / KinectOverlayDemo2这是一个骨骼覆盖演示,绿色球覆盖人体关节,它们之间的线条代表骨骼。场景利用KinectManager-组件管理传感器和数据,并利用SkeletonOverlayer-组件将被跟踪用户的身体关节与给定对象和对象之间的线条重叠在一起,并有选择地在场景背景上显示彩色摄像头。
OverlayDemo / KinectOverlayDemo3这是一个简单的“空中绘画”应用程序,它利用了手柄和释放物,并用线条覆盖了手的位置。该场景使用KinectManager-组件管理传感器和数据,使用InteractionManager-组件管理用户交互,使用HandOverlayer-组件将手形光标覆盖在用户的手上,而LinePainter-组件在用户的手闭合时绘制一条线。
OverlayDemo / KinectPhotoBooth这是Sophiya Siraj提供的一个照相亭应用程序演示。它使用滑动手势来更改在屏幕上覆盖用户的2D模型。场景使用KinectManager-组件管理传感器和数据,JointOverlayer-组件将被跟踪用户的身体关节与虚拟对象重叠,KinectGestures-组件检测用户手势,InteractionManager-组件管理用户交互,PhotoBoothController 控制更改叠加模型,并使用PhotoShooter组件管理照片拍摄。
PhysicsDemo / KinectPhysicsDemo这是一个球物理演示,用户可以举手以将虚拟球显示在屏幕上,然后将其扔到场景中的枪管中。场景利用KinectManager- 组件管理传感器和数据,使用ProjectorCamera-组件应用投影仪,使用BallController- 组件控制场景中的球状态和物理特性。
RecorderDemo / KinectProjectorDemo这是一个基本的投影机覆盖演示,其中投影机显示的骨骼应覆盖被跟踪用户的身体在传感器前面。骨架可以替换为由AvatarController和[AvatarScaler]http://192.168.10.100:8181/docs/k2doc/avatar-scaler "AvatarScaler"组件控制的人形模型。首先需要对投影机进行校准-请参阅此提示。场景使用KinectManager-组件管理传感器和数据,使用ProjectorCamera-组件匹配房间设置中投影仪的视点,使用SkeletonProjection-组件显示用户的骨骼叠加。
RecorderDemo / KinectRecorderDemo这是一个简单的人体数据记录器和播放器,由语音命令或按键控制。录制的身体数据文件可以稍后在同一台或其他机器上重放,而无需连接物理传感器。场景使用KinectManager-组件管理传感器和数据,FacetrackingManager-组件获取精确的头部位置,SpeechManager 管理Kinect语音识别,KinectRecorderPlayer-组件管理身体数据的记录和文件的回放,KinectPlayerController -用于处理语音命令和按键的组件,以及CubemanController-用于可视化场景中Cubeman对象上被跟踪用户的捕获身体数据的CubemanController组件。
SpeechRecognitionDemo / KinectSpeechRecognition演示如何使用预先配置的语音命令语法来控制屏幕上的虚拟机器人。语法文件“ SpeechGrammar.grxml”位于Assets / Resources文件夹中。场景使用KinectManager-组件来管理传感器和数据,SpeechManager 来管理Kinect语音识别,BotControlScript-组件来处理已识别的语音命令并控制机器人,而GameControlScript-组件来创建围栏并显示语音列表命令。
VariousDemos / KinectAudioTracker这是一个非常简单的演示,其唯一目的是通过声束相对于传感器的角度显示检测到的声源的方向。场景利用KinectManager组件管理传感器和数据,利用KinectAudioTracker 组件估计检测到的音频波束角度及其置信度。
VariousDemos / KinectHandObjectChecker它显示了传感器如何检测用户手中的物体,例如用户的书在他的手之间经过。场景利用KinectManager-组件管理传感器和数据,BackgroundDepthImage-组件在场景背景上显示深度图像,而HandObjectChecker-组件则用于检查用户手中的物体。
VariousDemos / KinectHeightEstimator这是一个简单的用户身体测量工具。它使用深度图像来估计用户身高和其他几种身体测量。场景使用KinectManager- 组件管理传感器和数据,使用BodySlicer-组件估计用户身高和其他身体测量,使用HeightEstimator-组件可视化检测到的用户身高和身体测量。
VariousDemos / KinectHolographicViewer这是由Davy Loots提供的简单的全息视图演示。它根据观察者在传感器前面的位置改变照相机的投影矩阵。场景利用KinectManager-组件管理传感器和数据,并利用SimpleHolographicCamera-组件根据查看者的位置管理相机投影矩阵。
VariousDemos / KinectPoseDetector这是简单的姿势检测演示。它计算模型和用户的骨骼方向之间的差异,并估算姿势匹配因子。场景使用KinectManager-组件管理传感器和数据,使用PoseDetectorScript-组件估计姿势匹配因子,使用PoseModelHelper-组件提供每个模型的骨骼方向数据,使用AvatarController-组件控制用户的头像模型。
VisualizerDemo / KinectSceneVisualizer将传感器看到的真实环境转换为网格,并用其覆盖彩色摄像机源。场景使用KinectManager-组件管理传感器和数据,BackgroundColorImage-组件在场景背景上显示彩色摄像机提要,SceneMeshVisualizer-组件将真实环境转换为网格,MousePointOverlayer-组件是用于放置虚拟物体的工具。场景中的对象(球),位于用户用鼠标单击的位置。
VisualizerDemo / KinectUserVisualizer将传感器看到的用户身体转换为网格并将其放入场景中。这样,用户可以与场景中的其他虚拟对象进行交互。现场利用KinectManager -component来管理传感器和数据,BackgroundRemovalManager -component管理的背景去除和平滑检测机构,边缘UserMeshVisualizer -component于用户身体转化为网格,PointmanController组分以控制Pointman-场景中的对象(用于碰撞检测),以及BallSpawner组件,以在场景中生成虚拟对象(球和立方体)。
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值