【点云处理之狂读论文经典篇2】——Multi-view Convolutional Neural Networks for 3D Shape Recognition

摘要

  1. 本文通过一组视角投影下的2D渲染图来学习识别3D形状。
  2. 首先提出一个标准的CNN架构用于独立训练3D形状的渲染图,实验结果表明,单张渲染图的的识别效果已经很好了。
  3. 增加渲染图的数量,识别效果会更好。
  4. 还提出了一个新的CNN框架,能够结合3D形状的多个视角图为一个紧凑的特征向量,识别效果更好。
  5. 相同的框架可以被用于识别人画的形状轮廓。
  6. 代码详见http://vis-www.cs.umass.edu/mvcnn.

1. 引言

  1. 本文以3D ShapeNets为基础,探究非体素表示的方法。
  2. 本文使用的多视图的处理方法效果要比直接处理3D形状好太多了,这是因为用2D表示的方法要比3D更加高效。
  3. 体素表示方法在处理的过程中耗时长、占用内存大、分辨率低、几何信息损失严重
  4. 可以用于classification和retrieval。
  5. 在将3D形状投影为2D图像后,可以对2D图像进行数据增强,实验效果更好。

2. 相关工作

特征提取器

  1. 3D表示方法:polygon meshes, voxel-based discretizations, point clouds, or implicit surfaces
  2. 多视图表示方法
  3. 传统3D表示方法:histograms or bag-of-features(surface normals and curvatures [15], distances, angles, triangle areas or tetrahedra volumes gathered at sampled surface points [25], properties of spherical functions defined in volumetric grids [16], local shape diameters measured at densely sampled surface points [4], heat kernel signatures on polygon meshes [2, 19], or extensions of the SIFT and SURF feature descriptors to 3D voxel grids [17].)
  4. 传统多视图表示方法:若干

CNN
与本文最相近的工作是对两个拼接的视图作为输入。而本文是以多个视图为输入聚合信息特征,不需要排序,输出的是一个紧凑的特征,利用图像和3D形状进行训练。

大多数的方法都是通过比较、拼接多个视图的特征进行处理,而本文是通过view-pooling layer聚合特征的。

3. 方法

本文的核心思想就是开发一个基于视图的3D形状特征提取方法,得到一个可训练、信息丰富的3D形状表示,可以在recognition 和 retrieval任务中进行应用。

简单地对每个视图进行单独处理,或者是拼接处理很不科学,需要找到一种可以处理多个视图特征的方法。本文使用了包含view-pooling layer的通用CNN从多个视角图中结合信息。

3.1 Input: A Multi-view Representation

使用Phong reflection model[27]生成polygon mesh形状(顶点)的视角图。

视点(虚拟相机位置)的选择很重要,本文有两种配置方法:

  1. 假设3D形状垂直放置,围绕着mesh,每30°放置一个虚拟相机,共12个位置,相机指向3D形状的质心。
  2. 假设3D形状的方向未知,那就用更多的图片去覆盖3D形状的表面。通过在包围形状的二十面体的20个顶点处放置20个虚拟相机生成视角图,所有的相机都指向形状的质心。每个相机从4个视角拍摄图片,分别以通过质心和相机的直线为轴旋转0°,90°,180°和270°,共生成80张图片。

生成视角图所耗费的时间很少。

3.2 Recognition with Multi-view Representations

在本小节中,直接使用现有的特征提取方法分别对每个视图进行特征提取,然后将这些特征进行整合。

  1. Hand-crafted descriptors(Fisher vectors with multi-scale SIFT)——PCA + Gaussian kernel升维
  2. CNN activation features(VGG-M)——pre-trained + fine-tuned

Classification

使用one-vs-rest线性SVM,在得到12视图的结果后,进行相加,取最高的结果。

Retrieval

多对多的特征相似性计算:

d ( x , y ) = ∑ j min ⁡ i ∥ x i − y j ∥ 2 2 n y + ∑ i min ⁡ j ∥ x i − y j ∥ 2 2 n x d(\mathbf{x}, \mathbf{y})=\frac{\sum_{j} \min _{i}\left\|\mathbf{x}_{i}-\mathbf{y}_{j}\right\|_{2}}{2 n_{y}}+\frac{\sum_{i} \min _{j}\left\|\mathbf{x}_{i}-\mathbf{y}_{j}\right\|_{2}}{2 n_{x}} d(x,y)=2nyjminixiyj2+2nximinjxiyj2

其中,形状 x \mathbf{x} x n x n_{x} nx个图像特征,形状 y \mathbf{y} y n y n_{y} ny个图像特征。特征之间的距离用 ℓ 2 \ell_{2} 2计算, i.e. ∥ x i − y j ∥ 2 \left\|\mathbf{x}_{i}-\mathbf{y}_{j}\right\|_{2} xiyj2

  1. 首先计算一个2D图像特征 x i \mathbf{x}_{i} xi y \mathbf{y} y的最短距离 d ( x i , y ) = min ⁡ j ∥ x i − y j ∥ 2 d\left(\mathbf{x}_{i}, \mathbf{y}\right)=\min _{j}\left\|\mathbf{x}_{i}-\mathbf{y}_{j}\right\|_{2} d(xi,y)=minjxiyj2
  2. 然后给出所有2D图像 x i \mathbf{x}_{i} xi y \mathbf{y} y的距离 ∑ \sum
  3. 最后取平均值
  4. 使用双向保证对称性

3.3 Multi-view CNN: Learning to Aggregate Views

上一节中使用的聚合方法不方便,效率也不高。在本节中,要找到一种既综合所有视图的特征信息又紧凑的表示形式。

Multi-view CNN(MVCNN)

如图1所示:

  1. 多视图分别进入网络的第一部分CNN 1 _1 1,CNN 1 _1 1所有分支的参数相同,
  2. 再在view-pooling layer进行聚合,该层取元素最大化操作(注意取最大值的维度与最大池化不一样),这个层可以放在主干网络的任意位置。但是,通过实验证明,放在第5层效果最好。
  3. 最后通过网络的剩余部分CNN 2 _2 2

这样性能佳,速度快。

Low-rank Mahalanobis metric

主要是针对Retrieval任务。训练一个权重 W W W ,可以将原先的特征向量 ϕ ∈ R d \phi \in \mathbb{R}^{d} ϕRd投影到 W ϕ ∈ R p W \phi \in \mathbb{R}^{p} WϕRp空间中,其中 p < d p<d p<d,便于计算特征间的 ℓ 2 \ell_{2} 2距离,实验中 p = 128 p=128 p=128

4. 实验

4.1 3D Shape Classification and Retrieval

数据集:ModelNet,包含127,915和3D模型,属于662个类别。其中40个类别已经被标注好了,包含12,311个形状,训练集和测试集的划分与3D ShapeNet保持一致。

对比方法:

  1. 3D ShapeNets
  2. pherical Harmonics descriptor (SPH)
  3. LightField descriptor (LFD)
  4. Fisher vectors

结论:

  1. 使用3D形状的投影视图的2D表示还是很有效的。
  2. 使用在ImageNet上预训练的主干网络能够提高任务的精度。
  3. MVCNN更强,没得说。
  4. low-rank Mahalanobis的使用对于retrieval任务来说更是锦上添花。
  5. view pooling layer放在第5层效果最好。

Saliency map among views

对于每个3D形状 S S S,其表示都对应着 K K K个2D视图 { I 1 , I 2 … I K } \left\{I_{1}, I_{2} \ldots I_{K}\right\} {I1,I2IK}。我们想要对2D视图中的像素进行排名,看看他们对网络的输出分 F c F_{c} Fc的影响(第八层,相对于 c c c类别)。Saliency maps被定义为对 F c F_{c} Fc求导:

[ w 1 , w 2 … w K ] = [ ∂ F c ∂ I 1 ∣ S , ∂ F c ∂ I 2 ∣ S … ∂ F c ∂ I K ∣ S ] \left[w_{1}, w_{2} \ldots w_{K}\right]=\left[\left.\frac{\partial F_{c}}{\partial I_{1}}\right|_{S},\left.\left.\frac{\partial F_{c}}{\partial I_{2}}\right|_{S} \ldots \frac{\partial F_{c}}{\partial I_{K}}\right|_{S}\right] [w1,w2wK]=[I1FcS,I2FcSIKFcS]

对于MVCNN而言, w w w可以在所有网络参数固定的情况下使用反向传播进行计算,然后可以重新排列以形成单个视图的Saliency maps。

4.2 Sketch Recognition: Jittering Revisited

就是2D图像的数据增强。

数据集:human sketch dataset,包含了20000个手工绘制的草图,250种类型。

4.3 Sketch-based 3D Shape Retrieval

数据集:

  1. SketchClean, 193个草图,10类
  2. ModelNet40,790个CAD模型,10类

3D模型的处理过程:

然后和手工画的草图进行特征比较,根据公式1排序。

最后得到的精度为36.1%

5. 结论

  1. 对多视图的特征结合来说,哪些视图的信息最多?多少张视图最适合?可以实时选择最合适的视图吗?
  2. 对于真实3D形状来说,多维视图方法还管用吗?

论文写作亮点

  1. A large corpus of
  2. silhouette n. 轮廓
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值