ECCV 2020 [非卷积5D] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis Github代码测试

论文是以稀疏光场渲染稠密视角光场从而达到3D效果;测试自己数据需要多张不同视角图片。

NeRF用(非卷积)深度网络表示场景的5D连续体表示。NeRF的一大特点是不使用3D建模,通过静态图片进行训练,再通过ray marching进行渲染实现3D视效,使3D视效样片的每一帧画面都能达到照片级的真实度。
目前代码已开源 ,https://github.com/bmild/nerf
项目主页:https://www.matthewtancik.com/nerf
代码测试环境:windows10          
         Tensorflow 1.15
          python3.7
          CUDA:10.0
          cuDNN7.6

下载论文数据后放入文件夹,如下图(后续会介绍此文件夹内的相关文件如何计算,毕竟测试自己的数据集时只有多张图像即images文件夹,其他文件都是计算获取,但难度较大感兴趣的可以尝试)

搭建好环境后执行 python run_nerf.py --config config_flower.txt即可,大概5-6个小时后能够计算出结果。

1、使用论文中flower、 fern(蕨类植物吧)、leaves、orchids数据集计算的结果,模拟3D效果。
 
 
 
 
2、自己拍摄数据集制作及相关的环境搭建;colmap
trimesh.png图片表示你拍摄多视角图像时相机的相应空间位置,它是有https://github.com/fyusion/llff项目中的
python imgs2poses.py data/images 来计算;


LLFF github项目安装使用

在github中能看到首先配置需要的运行环境,难度不算太大;但此项目需要安装colmap,他也是此项目较难的地方。具提可参考:

多视角图像拍摄,以获取自己想要拍摄的物体。


安装colmap
地址:https://github.com/colmap/colmap
参考官网使用python命令安装;中间会下载大量文件,导致报错,那就直接下载然后放到指定的文件夹即可;同时需要配置环境变量。colmap编译时需下载的文件https://download.csdn.net/download/niuyuanye/12594259
python scripts/python/build.py --build_path D:/Python/LF/colmap-dev/build  --colmap_path D:/Python/LF/colmap-dev --boost_path "C:/local/boost_1_69_0/lib64-msvc-14.1"  --qt_path "D:/Qt/Qt5.12.4/5.12.4/msvc2017_64" --cmake_generator "Visual Studio 15 2017 Win64"
按照要求安装 如下表示安装成功

使用colmap 
参考:https://www.cnblogs.com/Todd-Qi/p/10792685.html;通过特征提取、特征点匹配、稀疏重建;用colmap最终计算出:相机内参、相机位姿、稀疏3D点;

LLFF 项目中的imgs2poses.py将相机的参数转换为poses_bounds.npy(python imgs2poses.py flower_rose2/

)至此NeRF训练需要的数据制作完成:如下图

执行如下命令:python run_nerf.py --config config_mydata.txt
此数据时自己用手机拍摄的20张稀疏视角图像,最终重建出稠密视角图像,合成的3D效果,虽然手机20张图像曝光不一致,但重建的效果还不错,算法确实优秀,但运算太耗时间了。测试发现如果拍摄时视差过大则会出现模糊现象如最后一个测试结果。


  • 8
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
NeRFNeural Radiance Fields)是一种新兴的计算机视觉技术,能够通过深度学习模型从多个二维图像中还原出高质量的三维场景。下面是NeRF领域的国内外研究现状: 1. 国外研究现状 自NeRF2020年提出以来,该领域已经吸引了很多来自世界各地的研究者的关注。现在已经有很多关于NeRF的研究论文和代码库,主要是在计算机图形学和计算机视觉领域。其中,一些代表性的工作包括: - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis (Mildenhall等人, ECCV2020):这篇论文首次提出了NeRF的概念,是该领域的开创性工作。 - D-NeRF: Neural Radiance Fields for Dynamic Scenes (Martin-Brualla等人, CVPR2021):这篇论文针对动态场景提出了一种新的NeRF扩展方法,可以处理场景中的移动物体。 - Generative Query Network for More Flexible Object Representation (Nguyen-Phuoc等人, CVPR2019):这篇论文提出了一种称为GQN的神经网络模型,它使用场景图作为输入,并输出场景中的图像。 - PlenOctree: A Sparse Volumetric Representation for Efficient View Synthesis (Lombardi等人, SIGGRAPH Asia 2019):这篇论文提出了PlenOctree,一种用于NeRF的稀疏体积表示,可以显著提高NeRF的效率。 2. 国内研究现状 国内的NeRF研究相对较少,但近年来也有一些研究者开始在这个领域进行探索。一些代表性的工作包括: - Point2SpatialCapsule: Implicit Surfaces from Point Clouds with Spatially-Encapsulated Features (Chen等人, NeurIPS2020):这篇论文提出了一种新的神经网络模型,可以从点云中学习隐式表面表示,是NeRF的一种变体。 - Learning High-Resolution 3D Morphable Models from Texture Images for Dynamic View Synthesis (陈浩然等人, CVPR2021):这篇论文提出了一种新的方法,可以从高分辨率的纹理图像中学习高分辨率的3D模型,并实现了高质量的动态视角合成。 - Nerf-Lite: A Light-Weight Radiance Field Network for Real-Time Rendering (王明等人, ICME2021):这篇论文提出了一种轻量级的NeRF模型,可以实现实时渲

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值