CVPR2018 | 3D视觉

Self-Supervised Multi-Level Face Model Learning for Monocular Reconstruction at Over 250 Hz

Ayush TewariMichael ZollhöferPablo GarridoFlorian BernardHyeongwoo KimPatrick PérezChristian Theobalt

[pdf] [supp] [arXiv] [bibtex]

Extreme 3D Face Reconstruction: Seeing Through Occlusions

Anh Tuấn TrầnTal HassnerIacopo MasiEran PazYuval NirkinGérard Medioni

[pdf] [arXiv] [bibtex]

Unsupervised Training for 3D Morphable Model Regression

Kyle GenovaForrester ColeAaron MaschinotAaron SarnaDaniel VlasicWilliam T. Freeman

[pdf] [arXiv] [bibtex]

Mesoscopic Facial Geometry Inference Using Deep Neural Networks

Loc HuynhWeikai ChenShunsuke SaitoJun XingKoki NaganoAndrew JonesPaul DebevecHao Li

[pdf] [supp] [bibtex]

Modeling Facial Geometry Using Compositional VAEs

Timur BagautdinovChenglei WuJason SaragihPascal FuaYaser Sheikh

[pdf] [supp] [bibtex]

Nonlinear 3D Face Morphable Model

Luan TranXiaoming Liu

[pdf] [arXiv] [bibtex]

Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies

Hanbyul JooTomas SimonYaser Sheikh

[pdf] [bibtex]

DensePose: Dense Human Pose Estimation in the Wild

Rıza Alp GülerNatalia NeverovaIasonas Kokkinos

[pdf] [arXiv] [bibtex]

DoubleFusion: Real-Time Capture of Human Performances With Inner Body Shapes From a Single Depth Sensor

Tao YuZerong ZhengKaiwen GuoJianhui ZhaoQionghai DaiHao LiGerard Pons-MollYebin Liu

[pdf] [arXiv] [bibtex]

Video Based Reconstruction of 3D People Models

Thiemo AlldieckMarcus MagnorWeipeng XuChristian TheobaltGerard Pons-Moll

[pdf] [supp] [arXiv] [bibtex]

End-to-End Recovery of Human Shape and Pose

Angjoo KanazawaMichael J. BlackDavid W. JacobsJitendra Malik

[pdf] [arXiv] [bibtex]

Learning to Estimate 3D Human Pose and Shape From a Single Color Image

Georgios PavlakosLuyang ZhuXiaowei ZhouKostas Daniilidis

[pdf] [supp] [arXiv] [bibtex]

CodeSLAM — Learning a Compact, Optimisable Representation for Dense Visual SLAM

Michael BloeschJan CzarnowskiRonald ClarkStefan LeuteneggerAndrew J. Davison

[pdf] [supp] [bibtex]

Left-Right Comparative Recurrent Model for Stereo Matching

Zequn JiePengfei WangYonggen LingBo ZhaoYunchao WeiJiashi FengWei Liu

[pdf] [arXiv] [bibtex]

Learning Depth From Monocular Videos Using Direct Methods

Chaoyang WangJosé Miguel BuenaposadaRui ZhuSimon Lucey

[pdf] [arXiv] [bibtex]

Geometry-Aware Learning of Maps for Camera Localization

Samarth BrahmbhattJinwei GuKihwan KimJames HaysJan Kautz

[pdf] [supp] [arXiv] [bibtex]

Learning Less Is More - 6D Camera Localization via 3D Surface Regression

Eric BrachmannCarsten Rother

[pdf] [supp] [arXiv] [bibtex]

Semantic Visual Localization

Johannes L. SchönbergerMarc PollefeysAndreas GeigerTorsten Sattler

[pdf] [supp] [arXiv] [bibtex]

Neural 3D Mesh Renderer

Hiroharu KatoYoshitaka UshikuTatsuya Harada

[pdf] [supp] [arXiv] [bibtex]

Factoring Shape, Pose, and Layout From the 2D Image of a 3D Scene

Shubham TulsianiSaurabh GuptaDavid F. FouheyAlexei A. EfrosJitendra Malik

[pdf] [supp] [bibtex]

Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion Forecasting With a Single Convolutional Net

Wenjie LuoBin YangRaquel Urtasun

[pdf] [bibtex]

3D Semantic Segmentation With Submanifold Sparse Convolutional Networks

Benjamin GrahamMartin EngelckeLaurens van der Maaten

[pdf] [arXiv] [bibtex]

SPLATNet: Sparse Lattice Networks for Point Cloud Processing

Hang SuVarun JampaniDeqing SunSubhransu MajiEvangelos KalogerakisMing-Hsuan YangJan Kautz

[pdf] [supp] [arXiv] [bibtex]

Tangent Convolutions for Dense Prediction in 3D

Maxim TatarchenkoJaesik ParkVladlen KoltunQian-Yi Zhou

[pdf] [arXiv] [bibtex]

3D-RCNN: Instance-Level 3D Object Reconstruction via Render-and-Compare

Abhijit KunduYin LiJames M. Rehg

[pdf] [bibtex]

以下来源:https://blog.csdn.net/y80gDg1/article/details/81140413

3.1 Self-Supervised Multi-level Face Model Learning for Monocular Reconstruction at Over 250 Hz

 

本文由马克斯-普朗克研究所和斯坦福大学等机构合作完成,是 CVPR 2018 的 oral 文章。为了提升单张图片重建 3D 脸部模型的效果,该论文采用了多层次的脸部结构重建方法,作者把传统的基于参数化 3D 可变形模型(3DMM)作为基础模型,在此之上引入纠正模型来增加模型的表达力。实验表明纠正模型使得 3D 脸部重建效果更接近原图,而且能重建出更多细节。

640?wx_fmt=png

基础模型与纠正模型均为线性模型,其中基础模型的基向量通过对训练样本做 PCA 得到(即 3DMM 模型),而纠正模型的基向量由神经网络直接学习得到。脸部的形状与纹理通过基础模型加上纠正模型来拟合。算法使用编码器来学习基础模型和纠正模型的组合参数。随后整合两个模型的结果,通过解码器得到渲染的 3D 脸部模型。然后,算法把 3D 模型成像,对比成像结果与输入图片的差异,目标是使差异变小,因此该方法是自监督的方式进行训练。此外,算法还限制了成像结果与输入图的脸部特征点要对齐。注意该方法中只有编码器是可学习的,而解码器和渲染器都是手工设计的可导层,不是可学习的。为了让模型更加鲁棒和训练过程更加稳定,作者在损失函数上加入额外调节项,用于提升纠正模型的平滑性、纹理的稀疏性和整体一致性。

640?wx_fmt=png

3.2 Extreme 3D Face Reconstruction: Seeing Through Occlusions

 

本文由美国南加州大学和以色列公开大学合作完成,是 CVPR 2018 的 spotlight 文章。现有的基于单视角图像的 3D 人脸重建算法大多以接近正脸且没有遮挡的图片为输入。本论文提出了一种基于凹凸映射(bump mapping)的新算法,可用于解决被遮挡图像的 3D 人脸重建问题。该算法把脸部的重建分成两部分,一部分是基于 3DMM 的人脸基础形状和表情的重建,另一部分是局部细节纹理的重建。算法首先利用 BFM 的线性模型对全局形状和表情进行重建,对视角的估计采用了作者之前的工作 FasePoseNet。对于脸部细节的描述,作者使用了 CNN 来学习图片到凹凸图的转换,训练数据采用传统的 Shape from Shading 的方法计算得到。为了复现被遮挡住的细节,作者把非脸部区域看作丢失的信息并采用图像修复算法来填补。而成像角度而形成的自遮挡问题则通过软对称的机制完成。经过上述一系列步骤之后,算法可以获得细节逼真的结果且可以处理遮挡情况下的重建。

640?wx_fmt=png

 3.3 Unsupervised Training for 3D Morphable Model Regression

 

本文由普林斯顿大学、谷歌和麻省理工学院合作完成,是 CVPR 2018 的 spotlight 文章。使用无监督训练的方法基于 3DMM 进行人脸三维重建。论文基于编码器和解码器模型,创新性地将人脸识别网络引入训练的损失函数,使得生成的 3D 人脸能很好地保留了输入图片的人脸个体特征。该模型旨在拟合形状和纹理,并没有学习姿态表情和光照。算法的编码器接受图像作为输入,输出用于 3DMM 模型的参数。解码器接受参数后合成 3D 人脸。为了使网络不仅能保持个体信息,还能生成自然真实的人脸,作者提出了 3 个新的损失函数,即批分布损失(batch distribution loss)、回环损失(loopback loss)和多视角身份损失(multi-view identity loss)。批分布损失可使每个批的统计量与 3DMM 的统计量一致。回环损失可保证生成的 3D 人脸模型的2D成像图片重新进入编码器得到的参数和原图的参数尽量一致。多视角身份损失能使得模型学习到独立于观察角度的个体特征。实验结果说明,模型不仅仅可以生成与输入图像高度相似的 3D 人脸,而且生成的人脸独立于输入的表情和姿态,甚至被遮挡的人脸也可以达到不错的生成效果。

640?wx_fmt=png

 3.4 Mesoscopic Facial Geometry Inference Using Deep Neural Networks

 

本文由南加州大学、谷歌和 Pinscreen 联合完成,是 CVPR 2018 的 spotlight 文章。本文提出了一个由散射人脸纹理图(diffusely-lit facial texture maps)合成 3D 人脸的算法。该算法结合了图像到图像的转换网络和超分辨率网络。其中图像到图像的转换网络分成两个子网络,分别学习高频和中频信息,使得模型可以捕捉更多细节。基于一系列不同角度拍摄的图像,算法首先计算出基础 mesh 和 1k 分辨率的纹理图。随后通过条件对抗生成网络把输入的纹理图转换成高频和中频两种位移图。高频的位移图通过超分辨率网络提升到 4k 分辨率,而中频的位移图通过升采样提升到 4k 分辨率。这两种频率的位移图整合结束后,把信息重新加到 mesh 上,得到最后的输出。

640?wx_fmt=png

 3.5 Modeling Facial Geometry Using Compositional VAEs

 

本文由瑞士洛桑联邦理工学院与 Facebook 联合完成,是 CVPR 2018 的 spotlight 文章。对人脸建模而言,保证鲁棒性是一个难点,抓住表情是另一个难点。为了解决这两个难点,该论文提出了基于多层次变分自编码器(compositional VAE)的深度神经网络模型。这个算法只需要少量样本就可以训练出一个可以推广到新个体和任意表情的模型。

640?wx_fmt=png640?wx_fmt=png

现存的人脸建模算法大部分基于线性模型,而线性的假设限制了模型的表达能力。为了增加模型的表达能力,该算法使用神经网络对人脸进行非线性建模。它充分利用卷积神经网络对人脸进行整体和局部的多层次建模,其中高层网络抓住整体和低频信息,底层网络抓住局部和高频信息。模型采用了编码器和解码器结合的结构,并将 VAE 的思想融入 U-net 的跳转连接,使模型更具有鲁棒性。编码器的每层输出分成两部分,一部分作为下一层的输入,另一部分为该层隐变量后验分布的参数。解码器的每层输入包括了上一层的输出,以及由该层先验分布抽样得到的隐变量;它的输出包括了下一层的输入和下一册隐变量的先验分布参数。此外,为了更好地使用这个框架,论文提出了一种新的 mesh 表示方法,使二维图片上的近邻像素和三维拓扑的近邻保持一致。作者表示这个框架可以应用于很多具体任务,包括3D mesh 的对应、2D 的标志性特征拟合、深度图的重建等等。下图为算法对带噪声的深度图进行重建的结果,而训练数据只包括 16 个人。

640?wx_fmt=png

 3.6 Nonlinear 3D Face Morphable Model

 

本文由密西根州立大学完成,是 CVPR 2018 的 spotlight 文章。现有的基于 3DMM 的人脸重建方法大多是线性模型,线性模型的基向量通过对训练数据做 PCA 得到。由于计算基向量的样本量少,且线性模型的表达能力有限,所以生成效果提升会遇到瓶颈。本文提出了一个非线性人脸可变形模型,不需要采用事先已知的 3D Mesh 基向量,而是通过神经网络来将 3DMM 参数解码出 3D Mesh。

640?wx_fmt=png

该工作基于编码器-解码器模型。其中编码器通过输入图片学习投影参数以及形状和纹理参数。解码器通过形状和纹理参数直接学习 3D 的形状和纹理,因此可以看做是一种 3D 人脸的非线性可变形模型。随后,基于 z-buffer 算法,渲染层使用投影参数以及 3D 形状和纹理把 3D 模型渲染成一张 2D 图片。模型的目标是最小化 3D 人脸的 2D 投影与输入图片的像素级差异。为了让生成的人脸更加真实,作者引入了 patchGAN 来学习高质量的纹理和局部特征,还利用与特征标志对齐相关的损失函数来调节编码器。实验结果表示,解码器作为一种非线性变形模型有更强大的表示能力,可以重建出更多的人脸细节。

640?wx_fmt=png

 3.7 Total Capture: A 3D Deformation Model for Tracking Faces, Hands, and Bodies

 

本文由卡内基梅隆大学和 Facebook 联合完成,获得了 CVPR 2018 的最佳学生论文奖(Best Student Paper Award)。本文提出了一个统一的变形模型,可在无标志物(Marker)的情况下捕获多个尺度的人体运动,包括大尺度的躯体动作以及微妙的脸部和手部动作。在没有标志物的情况下,此前还没有系统可以同时捕获躯体、面部、手部的运动,主要挑战在于人体不同部分的尺度差距较大,比如在一张含有多个人的图像中,面部和手指所占的分辨率通常很小,造成难以捕获其运动。为了解决此问题,作者提出了一种统一的变形模型,可以表达人体每个主要部分的运动情况。具体而言,通过将人体各个部分模型缝合到一个骨架层次结构中,形成初始的 Frank 模型,此单一模型可以完整地表达人体各个部位的运动,包括面部和手部。通过使用多摄像头的捕捉系统大规模采集穿着日常服装的人,进一步优化初始模型得到 Adam 模型。Adam 是一个经过校准的参数化模型,与初始模型享有相同的骨架层次结构,同样包括躯体、面部、手部的模型,另外还可以表达头发和服装的几何形状。Adam 模型可以像其它 3D 可变形模型(例如  SMPL 人体模型、BFM 人脸模型等)一样用于基于单摄像头的整个人体的参数化 3D 重建。

640?wx_fmt=png

 3.8 DensePose: Dense Human Pose Estimation in the Wild

 

本文由法国国家信息与自动化研究所(INRIA)和Facebook AI 研究中心(FAIR)合作完成,是 CVPR 2018 的 oral 文章。本文提出了一个新的任务,提出密集人体姿态估计 ,并发布了一个人工标注的由 RGB 图像到 3D 模型密集对应的数据集 DensePose-COCO。传统的人体姿态估计主要基于少量的人体关节点,比如手腕等。本文通过将人体表面切分成多个部分,然后在每个部分标注区域关键点的方法,将人体表面关键点扩展到 100-150 个。基于该数据集,本文尝试了基于全卷积网络和基于 Mask-RCNN 的方法,发现基于 Mask-RCNN 的方法表现最优。该方法是在 Mask-RCNN 的基础上,在最后连接一个分类器和回归函数。分类器用于将每一个点分类到属于人体哪个部位,回归函数输出每一个点在各部位表面的 UV 坐标。本文展示的实验结果表明,提出的基于 Mask-RCNN 的方法可以成功学习到由 RGB 图像到 3D 模型的密集对应。

640?wx_fmt=png

3.9 DoubleFusion: Real-Time Capture of Human Performances with Inner Body Shapes From a Single Depth Sensor

 

本文由清华大学北京航空航天大学等机构合作完成,是 CVPR 2018 的 oral 文章。本文研究的问题是单个深度摄像头实时三维人体重建。此前最新的工作 BodyFusion 已经证明利用人体的骨架可以更好地重建三维人体模型。但是,BodyFusion 在跟踪环节只利用了体表信息,并且骨架信息在初始化后是固定的。一旦骨架信息的初始化没有做好,BodyFusion 的效果就会受很大影响。本文提出了一种动态利用骨架信息来约束三维人体模型重建的方法。将传统的 DynamicFusion 的方法作为外部层(outer surface layer),利用 SMPL 来建模内部骨架层(inner body layer),内部层也是通过融合的方法来不断迭代更新,因此该方法称作 DoubleFusion。本文还提出一种利用现有的信息来更新初始化 SMPL 参数的优化方法。实验结果表明:1)本文提出的内部骨架层可以有效改善快速移动下的三维人体模型重建;2)更新初始化 SMPL 参数的优化方法可以有效提高三维重建的精度

640?wx_fmt=png

3.10 Video Based Reconstruction of 3D People Models

 

本文由马克斯-普朗克研究所和德国布伦瑞克工业大学合作完成,是 CVPR 2018 的 spotlight 文章。给定单个含有一个运动人体(此人从各个角度可见)的单目视频,本文提出的方法首次实现了从中获得精确的三维人体模型,包括头发、衣服及表面纹理。标准的视觉外形方法(visual hull methods)从多个视图捕获静态形状,但是视频中的人体姿态是变化的,本文的核心是将视觉外形方法推广到含有运动人体的单目视频中,即将视频中动态的身体姿势转化为规范的参照系。作者通过对动态人体轮廓对应的轮廓锥进行变换以“消除”人体动态姿势,从而获得公共参照系中的视觉外形,这使得能够有效使用大量帧估计一个共同的人体三维形状。为了对衣服和其他细节进行建模,本文在估计 SMPL 模型参数的基础上增加一项三维位移的优化参数。在多个三维数据集上的实验结果表明,此方法可以达到 4.5mm 的三维人体重建精度。

640?wx_fmt=png

3.11 End-to-End Recovery of Human Shape and Pose

 

本文由加州大学伯克利分校、马克斯-普朗克研究所马里兰大学合作完成,提出了一种根据单张彩色图像端到端恢复人体三维模型的方法。目前大多数方法使用多步骤的方式估计三维人体姿态,首先估计二维关节点位置,然后基于此估计三维关节或者三维模型参数。本文提出的框架如下图所示,不依赖中间二维关键点检测,直接从单张图片编码特征并回归三维模型参数,借助 SMPL 模型输出人体三维网格。本文根据关键点投影构造损失函数,使得三维关键点投影后与真实二维关键点距离尽可能小。由于同一个二维投影面可以由多个三维模型经过投影得到,为了解决这种不确定性,作者还使用了一个判别器联合监督训练,判断生成的参数是否是真实的人体。通过引入这种条件 GAN 的方式,使得可以在没有任何成对的二维和三维数据的情况下进行训练,为从大规模二维数据学习三维信息提供了可能。此方法在估计三维关节精度方面超过了以前方法,并且在给定图片中人体边框的情况下可以实时运行。

640?wx_fmt=png

 3.12 Learning to Estimate 3D Human Pose and Shape from a Single Color Image

 

本文由宾夕法尼亚大学、北京大学和浙江大学共同合作完成。本文同样提出了一种基于 SMPL 模型的端到端神经网络模型,可从单张彩色图像恢复人体三维模型。该模型首先由 RGB 图片得到 2D 关键点和轮廓,然后利用 2D 关键点和轮廓信息来分别估计 SMPL 中的 3D 姿态(pose)参数和形态(shape)参数。不同于上述前一篇文章(End-to-End Recovery of Human Shape and Pose)中由图像来直接估计 SMPL 中的参数,本文是通过 2D 关键点和轮廓来估计。对于 2D 关键点和轮廓,已有大量公开的数据集和成熟的模型;对于 SMPL 参数的估计,可以通过公开的运动捕捉数据和人体扫描数据来获取三维模型数据,并且映射到 2D 图像来获取 2D 关键点和轮廓。实验结果表明该方法在三个公开数据集上取得很好的结果。根据论文中在 Human3.6M 数据集上的性能,之前的方法SMPLify的重建误差是 82.3,本文的结果是 75.9,而前一篇文章能达到 56.8(注意重建误差的数字是越小越好)。

640?wx_fmt=png

 3.13 CodeSLAM — Learning a Compact, Optimisable Representation for Dense Visual SLAM

 

本文由帝国理工学院 Andrew Davison 组完成,是CVPR 2018 荣誉提名奖(Honorable Mention Award)论文,主要关注场景几何信息的紧凑表示方法。场景几何信息的表示方式一直是三维视觉实时系统至关重要的研究问题。传统的密集地图的表示方式虽然可以描述完整的场景几何信息并加上语义标志,但其缺点是密集地图计算复杂高和存储代价大,不利于进行严格的概率推理。相反,稀疏地图的表示方式没有这样的问题,但其仅仅描述了稀疏的场景几何信息,这些信息一般主要用于相机的定位。为了获得密集地图的优点和稀疏地图的优点,本文提出了一种新的紧凑的密集地图表示方法。作者从图像中学习深度图和自编解码器这些方法中获得启发,提出了一种场景几何信息的紧凑表示方法,这种方法可以通过将紧凑编码与原始图像一起送进一个 CNN 解码器中得到场景的密集深度图。在基于关键帧的 SLAM 系统中,可以通过一起优化该编码和相机的位姿来恢复场景的几何信息和相机的运动信息。作者在文章中解释了如何学习得到这个编码,以及这个编码在单目 SLAM 系统中的优点。

640?wx_fmt=png

3.14 Left-Right Comparative Recurrent Model for Stereo Matching

 

本文由腾讯 AI Lab 和新加坡国立大学等机构合作完成,是 CVPR 2018 的 oral 文章。在立体视觉匹配问题中,充分利用左右双目的视差信息对于视差估计问题非常关键。左右一致性检测是通过参考对侧信息来提高视差估计质量的有效方法。然而,传统的左右一致性检测是孤立的后处理过程,而且重度依赖人工设计。作者提出了一种全新的左右双目对比的递归神经网络模型,同时实现左右一致性检测和视差估计。在每个递归步上,模型同时为双目预测视差结果,然后进行在线左右双目对比并识别出很可能预测错误的左右不匹配区域。作者提出了一种“软注意力机制”更好地利用学习到的误差图来指导模型在下一步预测中有针对性地修正更新低置信度的区域。通过这种左右对比的递归模型,生成的视差图质量能够不断提高。在 KITTI 2015、Scene Flow 和 Middlebury 标准库上的实验验证了本方法的有效性,并显示本方法能取得很高的立体匹配视差估计性能。

640?wx_fmt=png640?wx_fmt=png

3.15 Learning Depth from Monocular Videos Using Direct Methods

 

本文主要由卡内基·梅隆大学完成,提出了一种利用直接法进行无监督训练的单目图像预测深度图方法。作者受到了最近的直接法视觉里程计(DVO)的启发,认为深度图 CNN 可以在没有相机姿态 CNN 的情况下学习得到。具体来讲,由于深度估计和相机姿态估计是紧密联系在一起的问题,本文提出利用 CNN 预测深度图和利用一种可求导的 DVO 计算相机姿态的方法来计算训练损失,从而达到无监督式训练。借助一种有效的深度归一化策略,本文的方法可以使得在单目数据训练中的性能有很大的提升。

640?wx_fmt=png

3.16 Geometry-Aware Learning of Maps for Camera Localization

 

本文由美国佐治亚理工学院和英伟达合作完成,是  CVPR 2018 的 spotlight 文章。该论文提出了一种叫 MapNet 的方法来进行单目 SLAM 的相机 6DOF 定位。 MapNet 跟之前的工作 PoseNet 类似,也是通过卷积神经网络直接预测相机的 6DOF 位姿,不同之处是在训练的时候,除了像 PoseNet 一样用相机位姿的基本真值计算损失之外,引入了两帧图像之间的相对位姿计算损失。在此基础上的 MapNet+ 方法可以利用无基本真值的数据进行训练,方法是利用已有的视觉里程计例如 SVO 和 DSO 方法计算得到相对位姿作为训练的基本真值位姿来计算损失。同时,IMU 或 GPS 等数据也可以作为额外的数据来加入训练。另外,本文还提出使用 SLAM 常用的位姿图优化(PGO/Pose Graph Optimization)技术作为后处理来进一步提高位姿估计的精度。本文的另一个创新点是提出用对数域的单位四元数来做位姿中旋转的参数化,作者指出这种参数化方法更有利于深度学习。

640?wx_fmt=png

3.17 Learning Less Is More - 6D Camera Localization via 3D Surface Regression

 

本文由德国海德堡大学完成,跟上面介绍的 MapNet 一样,也是研究从单张图像恢复相机 6DOF 位姿的问题。在目前主流的基于深度学习进行相机 6DOF 定位的方法中,一般都采用端到端地学习整个相机定位的过程或者用学习相机定位的大部分流程。这篇文章与其它方法不太一样,作者认为,其实只需要学习相机定位中的一个模块便足够做到精准的定位。基于作者之前的 CVPR 2017 的可导 RANSAC 方法,作者提出了一种用全连接神经网络来稠密拟合“场景坐标”的方法,建立输入彩色图像和三维场景空间的联系。“场景坐标”是指将图像中的局部块映射到三维空间中三维点,从而得到局部块的坐标。由于局部块具有相对比较稳定的外观,即对视角变化不太敏感,使得对齐图像和三维模型比较容易。作者提出的这种方法具有高效、精确、训练鲁棒、泛化能力强等优点,其在室内和室外的数据集上都一致地比当前领先的技术要好。最后值得一提的是,这种方法在训练的时候不需要利用一个已知的三维场景模型,因为训练的时候可以自动地从单目视觉约束中学习到这个三维场景的几何信息。从论文中描述的在 7Scenes 数据集上的性能来看,本篇论文的方法的精度比上面介绍的 MapNet 方法的精度要高出不少。

640?wx_fmt=png

 3.18  Semantic Visual Localization

 

本文由苏黎世联邦理工学院、MPI Tubingen 和微软合作完成,主要研究在大范围的视角变化下的相机定位问题。问题的设定是,假设系统中有一些已知图像及其深度图和相机位姿,给定一个未见过的查询图像,求出其相机的 6DOF 位姿。处理这个困难的问题不仅有挑战性,而且非常实用。例如,增强现实和自动驾驶的长期定位都需要面对这个问题。作者提出了一种新的基于三维几何和语义的定位方法,这种方法可以克服过去方法失败的情况。作者利用了一个新的生成模型来进行描述子学习。训练描述子时,用一个语义场景补全任务作为辅助训练任务。训练得到的三维描述子对观察不全的情况很鲁棒,因为训练的时候把高维的三维几何和语义信息编码进去了。作者在几个有挑战性的大型定位数据集上表明了其方法在超大视角变化、光照变化和几何变化的情况下的可靠定位性能。

640?wx_fmt=png

 3.19  Neural 3D Mesh Renderer

 

本文由东京大学完成,是 CVPR 2018 的 spotlight 论文。该论文提出了一种将三维 Mesh 渲染成二维图像的近似可求导模块,可以用于神经网络的反向传递中。如果用传统方法直接将三维 Mesh 渲染成二维图像,会涉及一个光栅化的离散操作。这个操作是不能反向传播的,也就是说,不能用于常用的神经网络中。为了解决这个问题,这篇文章提出了一种近似的光栅化梯度,使其可用于神经网络的渲染模块。作者使用这个方法展示了由单幅图像带轮廓图像监督的三维 Mesh 重建,其性能优于目前的基于体素(Voxel)的方法。除此之外,作者在二维图像的监督下实现了基于梯度的三维网格编辑操作,例如二维到三维的风格转换,三维的 DeepDream 等。这些应用表明了作者提出的这个网络渲染器在神经网络的潜在应用和有效性。

640?wx_fmt=png

3.20 Factoring Shape, Pose, and Layout from the 2D Image of a 3D Scene

 

本文由加州伯克利大学完成。文章旨在提供一种从单张 2D 图像,通过预测立体场景的三个要素来重建场景 3D 结构的方法。其中三个要素包括:场景布局(layout, 墙面和地板)、物体的形状(shape)以及姿态(pose)。文章首先提出基于三要素的场景 3D 结构表示方法,并展示了对比与两种主要场景三维表示方法(深度图像和体素)的优势。随后作者给出了基于深度学习的场景重建网络结构(如下图)。网络输入为 2D 场景图片和物体边框,输出为作者定义的三要素。

640?wx_fmt=png

作者在合成数据集上进行了训练,并证实了模型在合成数据和真实数据上都具有良好的表现。部分真实图片的预测结果如下所示。本文方法的预测结果为场景 3D 结构理解提供了更好的解释性。

640?wx_fmt=png

3.21 Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion Forecasting with a Single Convolutional Net

 

本文由 Uber 公司与多伦多大学合作完成,是 CVPR 2018 的 oral 文章。作者首先指出自动驾驶任务通常被分割成四个步骤: 物体检测、物体追踪、运动预测和路径规划。四个步骤通常独立学习。这样造成了后续步骤中的错误信息无法反馈给之前的步骤并且运行时间长。 在本文中, 作者提出了一种名为 FaF(Fast and Furious,速度与激情)的端到端全卷积网络方法。该方法利用 3D 传感器提供的时空数据,可同时完成 3D 检测,追踪和运动预测。该方法不仅能在作者采集的大数据上取得最优结果,还可以实时(30ms 内)完成所有任务。值得注意的是,在对单帧点云数据体素化之后,作者并未采用复杂的 3D 卷积操作,而是把高度量化后作为通道信息,在宽度和深度上使用 2D 卷积。这样既保证了网络的高效, 又可以让网络学习准确的高度信息。对于时间信息,作者提供了早期融合(early fusion)和延迟融合(later fusion)两种模型(如下图)。其中早期融合模型运行速度更快,延迟融合准确率更高。

640?wx_fmt=png

在作者采集激光雷达数据集上,该方法在三个任务上表现优异。作者通过消融研究证实了三个任务同时学习的必要性。

 

3.22 3D Semantic Segmentation with Submanifold Sparse Convolutional Networks 

 

本文由 FAIR 与牛津大学联合完成,是 CVPR 2018 的 spotlight 文章。该论文提出的方法及其上一版本(A spatially-sparse convolutional neural network)已经在多个视觉任务比赛中名列前茅,如 2017 年 shapeNet 3D 物体语义分割比赛第一名和 2015 年 Kaggle 举办的糖尿病视网膜病变检测第一名等。 本文在利用三维稀疏结构的基础上强调卷积操作不应减少原有稀疏特性(图1)。为不改变 3D 数据稀疏特性(图2),作者提出了子流形稀疏卷积操作子(SSC,Submanifold Sparse Convolution operator)。具体来说,首先对输入的边缘进行 0 值扩增,以保持操作后输出与输入同尺寸。然后只在以输入样本的激活像素为中心点的区域(图 2,绿色像素)进行卷积操作。这样就保证了卷积操作不改变特征的稀疏结构。

640?wx_fmt=png

图 1 左图为原始输入。中图为一次卷积操作后结果。右图为两次卷积后结果。常规卷积运算减少了特征的稀疏特性。特征发生“膨胀(dilation)”

640?wx_fmt=png

图 2 SSC感受视野在不同位置示意图。绿色为激活像素,红色为忽略像素。输出激活区域的模式与输入保持不变。

 

在SSC的基础上,作者又定义了对应的激活函数,批归一化和池化函数用以高效的搭建不同的深度学习网络。实验表明,该方法计算高效且准确率高。

 

3.23 SPLATNet: Sparse Lattice Networks for Point Cloud Processing

 

本文由马塞诸塞州大学、加州大学美熹德分校和英伟达公司共同完成,获得本届 CVPR 最佳论文荣誉提名奖(Best Paper Honorable Mention Award)。自动驾驶和机器人应用中, 通常需要对激光雷达等 3D 传感器获得的不规则数据(如点云(point cloud)和表面(mesh)),进行处理和分析。点云数据的稀疏和无序特性给直接运用卷积神经网络带来了困难。为解决上述问题,本文通过引入双边卷积层(BCL/Bilateral Convolution layer), 构建了一种适用于点云数据的通用灵活的神经网络结构——稀疏晶格网络(SPLATNet, SParse LAttice Network)。该网络的核心是双边卷积层,由以下三个步骤完成:

640?wx_fmt=png

a)Splat

该步骤首先把特征从原空间(欧式空间)投影到Permutohedral Lattice 空间中。然后通过重心插值法(barycentric interpolation)将点特征整合到晶格顶点。这样就将不规则的点云信息表示在了规则的晶格顶点上。

 

b)Convolve

一旦将点云投影到规则的晶格上,卷积操作就和平坦空间卷积类似了。

 

c)Slice

该操作可视为 Splat 的反操作。它通过质心插值法,将特征映射回原空间。此时的输出点云可以和输入点云相同,也可以不相同。

 

在 BCL 的基础, 为解决语义分割问题,作者提供了 3D-3D 和 2D-3D 两种网络结构,如下图所示:

640?wx_fmt=png

其实验结果如下:

640?wx_fmt=png

3.24  Tangent Convolutions for Dense Prediction in 3D

 

本文由弗莱堡大学和英特尔实验室(Intel lab)共同完成,是 CVPR 2018 的 spotlight 文章。为在 3D 语义场景分析任务中使用深度卷积网络结构,作者提出一种新的卷积操作——切面卷积(Tangent Convolution)。作者首先提出了 3D 数据都是来源于局部欧式表面(locally Euclidean )采样的假设。 在此基础上,每个点的局部表面几何结构可以投影到该点周围的切平面上。 每个切面图像可以认为是支持平面卷积的二维规则图像。 所以对于 3D 数据,作者推导出如下切面卷积公式:

640?wx_fmt=png

其中 P 为 3D  输入数据,u为该点在切平面的 K 近邻点,c 为卷积核,w 为 u 的插值函数,g 为近邻选择函数。 因为切平面图像只与输入几何结构有关,作者认为预计算切平面图像后,该方法可以适用于大规模点云数据。

 

在切面卷积基础上,作者搭建了如下全卷积 U 形网络 来进行 3D 场景理解。

640?wx_fmt=png

部分室内、室外对比实验结果如下所示:

640?wx_fmt=png

3.25 3D-RCNN: Instance-Level 3D Object Reconstruction via Render-and-Compare

 

本文由佐治亚理工和卡耐基梅隆大学合作完成,是 CVPR 2018 的 oral 文章。该论文提出了一种用深度卷积网络从 2D 图像中重建 3D 物体实例的方法。文中,作者首先解决了 3D 形状(shape)和姿态(pose)如何表示的问题。 对于 3D 形状,作者通过对每一类物体的 CAD 模型进行 PCA 建模后,得到了该类物体的一组基向量。之后实例的 3D 形状就可以用一组参数表示为对应基向量的线性组合。对于姿态,作者认为物体为中心的表示方式(allocentric orientation)相比较于相机为中心的表示方式(egocentric oritation)更加适合学习,因为这种表示方式与物体为中心的 2D 图像感兴趣区域(RoI)的表示方式更加一致。在此基础上,作者给出了名为 3D-RCNN 的网络结构:

640?wx_fmt=png

网络结构的解渲染部分(De-render)从 2D 图像中预测出上述 3D 表示。为利用更易获取的 2D 图像进行监督训练,作者设计了渲染与对比损失函数。 该部分将重建后的 3D 实例进行渲染得到对应 RoI 区域的分割掩膜和深度图像。在与真实结果对比后,利用有限差分法计算近似梯度进行训练。作者首先在合成数据集上进行了训练,然后在真实数据集上进行微调。该网络在真实图像上部分测试结果如下所示。

640?wx_fmt=png

  • 6
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值