AR-虚实融合文献阅读整理(一)

一 增强现实中虚实融合中光照一致性的研究

http://xueshu.baidu.com/s?wd=paperuri%3A%28e867ba9c51b7d137175268533e46399d%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Fwww.doc88.com%2Fp-9733331878429.html&ie=utf-8&sc_us=4587092160239137668

一 概论

虚实结合即强调虚拟跟现实的融合,体现在虚实结合、实时交互和三维尺度匹配,主要通过显示技术、交互技术、传感技术和计算机图形和图像技术实现。

二 实时光照计算技术

几何一致:

传感器注册(GPS、指南针、IMU、红外和深度摄像头等)

计算机视觉注册(现有的好多AR应用)

传感器和视觉结合的注册

光照一致:

各种光照和反射等特性计算,详细的可以自己去查看。理论上来说,GPU计算能力越强,考虑进去的反射、折射、漫反射以及物体表面的特性越多,得到的虚拟场景的光照效果越接近现实场景。

GPU可编程图形处理器:

GPU图形架构中,只有顶点处理器和片元着色器事可编程的。

1.可编程顶点处理器

三维到二维,及顶点数据到投影平面,位置颜色和纹理坐标

2. 可编程片段处理器


三 真实场景光照表示和获取方法

1. 真实场景光照表示

阴影计算、金属球采集反射贴图等.

2.获取方法

主要获取方法有两种:

利用图像检测、特殊的硬件设施来对真实场景的光照进行采集,再把真实场景中的光照抽样成计算机图形学中的各种光源,最后用虚拟光源对虚拟对象进行感光绘制。

模拟单一材质的虚拟对象对周围环境的反射特性,采用基于图像光照技术来获取光照信息;


真实场景中颜色信息和对比度在【0,255】范围一般会丢失好多信息,所以高动态范围图像被采用。利用普通图像加一些技术来合成HDR图像。

1.光测球法2.图像拼接法3.全景相机法

四 复杂环境实时光照绘制算法

用Cook Torrance光照模型进行计算,有各种光照模型、漫反射分量计算、镜面反射份量计算等。

五 虚实场景炫光和折射的模拟




二 增强装配系统的虚实融合技术研究

http://xueshu.baidu.com/s?wd=paperuri%3A%2858a301575a2ad115141463fb9b878ea1%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Fwww.doc88.com%2Fp-919950630584.html&ie=utf-8&sc_us=11047183566215279277

一 背景 balabalabala

有个沉浸式虚拟装配系统 VADE

二 虚实混合建模

三 虚实注册

1.技术原理 坐标系变换 三个步骤


真实空间坐标系- 观察空间坐标系

观察平面坐标系-2D成像平面坐标系

虚拟物体坐标-真实空间坐标系

2.视频采集与矫正:

解决几种失真问题


3.标志物识别:

用黑色方框内的白色区域作为识别区来识别虚拟装配零件的信息。


主要用到的技术图像处理中的区域检测、标志物仿射变换等。基本都在2D的坐标中。

4.基于标志物的零件注册

真实零件注册:与标志物固联,通过识别标志物注册真实零件

虚拟零件注册:虚的以实的为父节点 所以相对位置也就知道了

5.基于标志物的用户注册

也是基于识别标识 即黑白块的用户操作。

四 虚实叠加

真实摄像头数据加渲染虚拟物体,嗯

关于遮挡的问题,肯定要拿到深度图像才可以。

五 系统搭建

1.模型 ProE wrl格式文件

2.虚拟现实开发包 OpenInventor对装配场景进行管理渲染操作,可以配合opengl编程

3.视频信号采集工具 VFW和directshow

4.图像处理与视频叠加工具

流程图如下:




三 虚实融合环境下Kinect体感交互在虚拟实验中的应用

http://www.ixueshu.com/document/9a7b2ed7ffddad4d318947a18e7f9386.html

一 虚实融合与体感交互

kinect:红外投影+红外摄像头+彩色摄像头+麦克风阵列(红外投影机投射光谱,摄像头读取反射谱;彩色是辅助识别)

二 虚拟实验室现状

。。。

好吧 这篇基本没讲啥 没干货 就是unity+xbox的开发 结合kinect有手势和肢体识别的内容 有需要的自行了解kinect开发吧

  • 4
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: aframe-ar-nft.js是一个基于WebAR技术的开源JavaScript库,它可以使开发者快速构建AR应用程序。该库主要针对基于NFT(Natrual Feature Tracking)技术的AR应用开发,NFT是一种AR技术,可以通过识别真实世界中的物体并与虚拟信息相结合来增强增强现实体验。该库与Three.js进行了整合,开发者可以使用Three.js中已有的功能和API完成AR应用程序的开发。同时,该库还支持在模型和纹理之间进行切换,可以根据需要在AR场景中加入图像、视频、3D模型等虚拟元素。 使用aframe-ar-nft.js开发AR应用程序非常方便,只需要在HTML文件中引入需要加载的模型和纹理文件,然后实例化NFTMarker类,即可开始AR应用的开发。开发者可以根据需要配置AR场景中的元素,例如相机、灯光、模型等,使用该库还可以实现手势控制和声音效果。 总的来说,aframe-ar-nft.js可以让开发者轻松地创建基于NFT技术的AR应用程序,通过与Three.js的整合,可以很容易地进行二次开发和定制。这为AR应用程序的开发提供了更加便利和高效的解决方案。 ### 回答2: aframe-ar-nft.js是一个能够让用户在webAR中使用NFT(可识别图像)来构建虚拟现实场景的javascript库。该库的主要优势是,与传统的AR技术不同,它基于NFT技术,不需要使用额外的标记或器具来触发虚拟现实效果,简单易用。aframe-ar-nft.js提供了完整的API文档,使得开发人员可以快速轻松地在自己的网站或应用中使用AR技术。它具有高度的灵活性,可以应用于各种网站和应用场景,例如:游戏、虚拟演示、教育、医疗等等。该库的使用方法也非常简单,只需几行代码即可实现AR效果。总之,aframe-ar-nft.js是一款易用、灵活、高性能的javascript库,为开发人员提供了一种强大的AR开发工具。 ### 回答3: aframe-ar-nft.js是一款基于WebAR技术的扩展库,它提供了简单易用的NFT(Natural Feature Tracking,自然特征跟踪)功能,可以实现在现实场景中识别NFT图像,从而在图像上展示虚拟3D模型。 通过在A-Frame中使用aframe-ar-nft.js,用户可以很方便地创建AR体验,比如将虚拟模型置于某个位置,或者通过手势交互与用户互动,展示出身临其境的AR效果。 此外,aframe-ar-nft.js还提供了丰富的配置选项,可以针对不同的NFT图像进行自定义设置,例如调整图像的大小、定义图像的旋转方向等等,从而获得更出色的AR效果。 总的来说,aframe-ar-nft.js是一款非常实用的WebAR库,它通过简洁易用的接口和多样化的配置选项,为WebAR开发者提供了便捷、高效、灵活的开发体验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值