笔记:从NeRF->GRAF->GIRAFFE

1 篇文章 0 订阅
  • 笔记:从NeRF->GRAF->GIRAFFE
    • NeRF:

      在这里插入图片描述

      • 输入的数据为一个场景和这角度图像和相应的相机参数来提高观测角度,得到5D数据((x,y,z),(θ,φ)),以MLP的参数来表征该场景,输出((r,g,b),σ)。注:σ是一定的,只与position有关,但是color根据不同的视角不同不一样,所有由((x,y,z),(θ,φ))共同决定。

      • volume rendering:T(t)为透光率,σ(r(t))是点的体密度,c(r(t),d)是点的颜色

        在这里插入图片描述

      • 提出了两个优化:位置编码(因为神经网络对微小的变化不敏感,通过傅里叶变换,可以优化高频的细节)。分层采样:coarse层是均匀采样,fine层是根据预测的体密度采样。

    • GRAF:

      在这里插入图片描述

      在这里插入图片描述

      • 因为NeRF需要大量的相机位姿标注,而且无法自由编辑生成物体。结合了GAN的使用, 实现了使用2D监督的方式来进行3D重建,也就是不要相机的位姿标定,让GAN去判别位姿是什么样的。
      • 提出sample patch来提高训练速度。
      • 提出了条件辐射场的表示场景方式,因为输入中加入了zs和za来添加对外形和形状的控制。
    • GIRAFFE

      在这里插入图片描述

      在这里插入图片描述

      • 实现了对单个物体的操作和对背景的分离,对特征的解耦。因为GARF只能对一个场景表示,GIRAFFE可以看作是多个GARF的组合。首先GIRAFFE对每个object提出了结合仿射变换的特征场(可以对object旋转,平移,缩放的原因)。从局部物体到场景的转换如下:

        在这里插入图片描述

        然后通过类似NeRF和方法表征每个单独的object:

        在这里插入图片描述

      • 场景的合成:对于N个实体(N-1个object,一个background),对于一个坐标点,σ求和,特征向量f则是N个实体的f和σ加权求和再平均:

        在这里插入图片描述

      • 渲染场景:
        • 将组合了多个object和background的隐式三维场景表达用2D的CNN网络解码为2D图片。

        在这里插入图片描述

      • 整个训练框架采用的GAN的框架,损失函数如下:

        在这里插入图片描述

    • 总结:
      • 个人认为,GIRAFFE就是在GARF的基础上,提出了一个结合可以对每个object的仿射变换的特征场,然后提出了一个可以将这个每个object和background的特征场操作完之后合并的方法,从而实现了从单目标到多目标的进步。但是根据我测试的效果好像并不是很逼真。(分享学习,望指正)
  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值