【点云系列】Learning Representations and Generative Models for 3D pointclouds


清理一些之前的草稿箱,写了一半忘记写完发布,望大家见谅。不过鉴于已经有好几个人翻译了全文,不懂的可以参考去看看,这篇文章真的算作点云生成模型的鼻祖了。妥妥的斯坦福出品,验证试验是真的多。基本在告诉我们高斯混合模型的好用。

1. 概要:

2018CVPR 会议论文,也算是先驱作品了。
论文:http://proceedings.mlr.press/v80/achlioptas18a/achlioptas18a.pdf
补充材料:http://proceedings.mlr.press/v80/achlioptas18a/achlioptas18a-supp.pdf
代码:https://github.com/optas/latent_3d_points

本文要点

  • 研究点云的表示方法,主要使用deep AutoEncoder。

  • 对比了不同的生成模型,l-GAN要好多GMMs

    模型包括
    1)GANs:直接作用于原始点云;
    2)l-GANs(latent-GANs):直接作用在潜在空间的点云特征,用AE先提取潜在空间点云特征;
    3)GMMs:高斯混合模型

    评估方法
    1)样本保真度;
    2)覆盖率度量;

2. 贡献点:

  • 一种新的点云AE框架;
  • 第一套点云深度生成模型;
  • 新的衡量指标,基于两个不同的点云集合之间的最佳匹配;

3. 衡量方式:

3.1 度量

1) EMD:测地距离

限制:两个点集数量需要一致,是两个集合之间的运输问题,一一对应。
优点:几乎处处可微
在这里插入图片描述

2) CD:近邻度量

优点:度量一个集合与另一个集合最近邻的平方,不限制两个集合数量相同。且计算较EMD更高效。
在这里插入图片描述

3.2 生成模型度量方式

1) JSD:

欧几里得三维空间边界分布的简森-香农散度(Jensen-Shannon Divergence )
用来衡量两个分布的相似度
在这里插入图片描述

2) Converage:

覆盖率的计算:用B与A的匹配比例来衡量。本质也是计算距离得到。所以计算是否相似仍然需要用到基础度量CD或EMD。
点级别的距离计算公式; EMD几乎处处可微,但CD可微且计算更为高效;

  1. Earth Mover’s distance(EMD)
    在这里插入图片描述

  2. Chamfer(pseudo)distance(CD)
    在这里插入图片描述

3) 最小匹配距离(Minimum Matching Distance,MMD)

MMD可以通过测量A对B的保真度,弥补 覆盖率的缺点(不能准确指示几何A中覆盖的有多好)

比较

MMD与Coverage互补。在MMD小Cov大的情况下,点云A集合以良好的保真度捕获了B的所有模式。
JSD是计算分布相似性的,因此其是粗略的评估两个集合之间的相似性。JSD与MMD有很好的相关性,可以作为一个有效的替代方式。

4. 表示与生成模型

基本块
AEs:重新编码输入的架构。可以用压缩后的特征 z z z来表达原始点云。可用于重建任务。
在这里插入图片描述
GANs:基础架构:生成器G和判别器D。
G:生成与真实数据无法区分的样本,通过将一个简单分布中 随机抽取的样本传递给生成器函数。
D:把合成的样本与实际样本区分开;
在这里插入图片描述
GMM:一种概率模型,用于表示一个假设分布为多模态高斯分布的种群,即由多个子种群组成,其中每个子种群都服从高斯分布。假设已知子种群数量,利用期望最大化(EM)算法可以从随机样本中学习GMM参数(其实也就是高斯分布的均值和方差)。

4.1 原始GAN模型(r-GAN):

训练数据集:20483点云
判别器:结构与AE相同,没有用任何Batch-Norm,使用Leaky ReLU,最后一个全连接层输出送入到sigmoid激活函数。
生成器:高斯噪声为输入,5个FC-ReLu层映射到2048
3输出

4.2 隐空间GAN(l-GAN):

先训练好

(3) 参考利用下面的程序代码,完成代码注释中要求的两项任务。 import re """ 下面ref是2020年CVPR的最佳论文的pdf格式直接另存为文本文件后, 截取的参考文献前6篇的文本部分。 请利用该科研文献的这部分文本,利用正则表达式、字符串处理等方法, 编程实现对这6篇参考文献按下面的方式进行排序输出。 a.按参考文献标题排序 b.按出版年份排序 """ ref = """[1] Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas Guibas. Learning representations and generative models for 3D point clouds. In Proc. ICML, 2018 [2] Pulkit Agrawal, Joao Carreira, and Jitendra Malik. Learning to see by moving. In Proc. ICCV, 2015 [3] Peter N. Belhumeur, David J. Kriegman, and Alan L. Yuille. The bas-relief ambiguity. IJCV, 1999 [4] Christoph Bregler, Aaron Hertzmann, and Henning Biermann. Recovering non-rigid 3D shape from image streams. In Proc. CVPR, 2000 [5] Angel X. Chang, Thomas Funkhouser, Leonidas Guibas. Shapenet: An information-rich 3d model reposi-tory. arXiv preprint arXiv:1512.03012, 2015 [6] Ching-Hang Chen, Ambrish Tyagi, Amit Agrawal, Dy-lan Drover, Rohith MV, Stefan Stojanov, and James M. Rehg. Unsupervised 3d pose estimation with geometric self-supervision. In Proc. CVPR, 2019""" ref_str = re.sub(r'\[([0-9]{1})\]', r'$[\1]', ref) # 添加分隔$ print(ref_str) #脚手架代码 ref_str_2 = re.sub(r'([a-zA-Z]{2})\.', r'\1.#', ref_str) # 添加分隔# print(ref_str_2) #脚手架代码 ref_str2 = ref_str_2.replace("\n", "") ref_list = ref_str2.split("$") print(ref_list) #脚手架代码 [提示: 排序可以采用内置函数sorted(),语法如下: sorted(iterable, /, *, key=None, reverse=False), 注意掌握形式参数中带“/”和“*”的用途]
最新发布
05-26
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值