Dynamic Fusion Technology of Mobile Video and 3D GIS: The
Example of Smartphone Video
略读完了这篇论文,这篇论文主要是讲述了移动视频的动态融合与3D地理信息系统(3DGIS)的结合。
论文的主要目标是
实现移动视频与3D GIS的动态融合,将移动设备拍摄的视频纹理投影到实时的3D模型上。这包括了处理手机在不同位置和方向下拍摄视频的姿态变化,并通过动态投影算法将视频与3D场景进行有效融合。论文关注了姿态解算、动态投影的效果分析、融合效率评估等关键方面,以验证算法的可行性和效果。
Web-based mixed reality video fusion with remote rendering
论文提出了一种将
视频图像动态投影到3D模型上作为纹理的融合方法。其通过在远程服务器上运行此过程,利用强大的服务器和高级图形卡功能(如光线追踪),实现了更真实的3D模型渲染效果。
这篇论文介绍了一个通过远程渲染实现的基于Web的MR视频融合系统,强调了用户友好性和系统效果的实验证明。
MR Video Fusion: Interactive 3D Modeling and Stitching on
Wide-baseline Videos
这篇论文确实涉及
重新构建三维模型,而不是直接使用已有的三维模型。通过对视频背景帧的分析和交互式建模,论文描述了一种实时的、基于场景图表示的3D建模方法。在这个过程中,用户可以通过在图像上进行交互式的点、线和面的绘制,以构建整个三维场景的模型。这种方法的目的是利用视频提供的背景信息,重新构建并拓展三维模型,以适应不同的监控或视觉场景。
项目上试图加上之前说的视频投影技术,但是报错了,可能是ceisum版本问题导致的,这个后续还得具体看是哪里出的问题,案例给的是cesium 1.70版本。