![](https://img-blog.csdnimg.cn/20190918140129601.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
三维重建
文章平均质量分 93
关于三维重建看过的文章
理想很丰满,现实很骨感
这个作者很懒,什么都没留下…
展开
-
DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation
相关工作3D形状补全类似于2D的计算机视觉里面的图像修复工作,3D形状补全工作的目的是基于一些部分的或离散的输入,推理出这个3D物体全部的形状。比如说给我几个离散的SDF函数的值,我把整个连续的SDF函数给搞出来,给我任意的输入我都能得到应有的数值。之前传统的方式是使用径向基函数(RBF),或者将其看做是一个泊松问题,但是这些方式是以数学理论为依托的,虽然合理性得到了保证,但是缺点就是一次仅仅只能建模一个单一的3D物体。最近随着深度学习的发展,这种3D补全工作开始以数据为驱动,常用的模型便是编码-解码架原创 2022-01-16 14:02:51 · 7194 阅读 · 0 评论 -
GIRAFFE: Representing Scenes as Compositional Generative Neural Feature Fields(CVPR2021 Best paper)
NeRF《On the spectral bias of neural networks》ICML2018 发现尽管神经网络是万能函数近似器,但是它更倾向于学习低频特征,如果在输入信息传递给网络之前,使用高频函数将输入信息映射到更高维度的空间,可以更好地拟合包含高频变化的数据...原创 2021-08-15 10:47:03 · 5293 阅读 · 9 评论 -
用神经网络表示物体或场景与用神经网络完成任务的区别与联系
目录前言二者联系二者区别局部与个体,个体与群体的区别物理约束与抽象约束的区别训练时的更具体的区别前言在读过NeRF,DeepSDF等文章的基础上,结合文章的核心思想与自己做过的idea,总结了一下用神经网络去表示物体或场景与我们一般认知的用神经网络去完成某项任务的区别与联系二者联系神经网络是一个通用的、万能的函数近似器,这个结论已经在数学上被严格证明出来了,所以说,不管我们拿神经网络,用深度学习的方法去做了什么看似神奇的事情,其实从本质上来说,都是建立了一个从输入到输出的映射关系,这个中间过程,其实原创 2022-01-11 15:59:01 · 1096 阅读 · 1 评论 -
可微分渲染:Learning to Predict 3D Objects with an Interpolation-based Differentiable Renderer
目录1. 可微渲染简介2. DIB-R原理3. 可微渲染进行三维重建流程1. 可微渲染简介三维的物体渲染成二维图像的时候,其实本质上是进行了一系列矩阵变换,插值等操作,这和神经网络有一定的相似之处,渲染相当于前向传播,得到渲染图,而渲染图和输入图像相比较可以定义loss,从而进行反向传播,去优化三维物体的形状与纹理,从而实现基于单张图像的三维重建,并且不再受3D数据集依赖。当然渲染的过程实现方法有很多,可以自己写shader,也有很多优化,并且是不支持可微操作的,因此可微分渲染的主要难点是去定义一个整原创 2021-06-14 18:07:44 · 7247 阅读 · 0 评论 -
Optimizing the Latent Space of Generative Networks
1. 概述提出了一种称之为Generative Latent Optimization(GLO)的方法,与GAN相比,免去了生成对抗训练的策略,取得了类似GAN的效果2. GAN的介绍GAN有三个明显的泛化性的迹象:不同图像在latent code空间对应着不同的值,如果把两张图片的值进行插值,那么再经过GAN的生成器,就能生成新的融合两张图像的新的图像,即所谓的:从线性插值到语义插值的转换在latent code空间可以进行线性运算,对应着对图像的各种可能的属性的改变,这意味着我们可以把自然图原创 2022-01-15 17:02:21 · 4261 阅读 · 1 评论