Focal Sparse Convolutional Networks for 3D Object Detection论文阅读分享

3D目标检测关键问题如何将非结构化且稀疏的点云数据做一个有效的表示!

目前主流的有两种方法:

本文的创新点之一在焦点卷积。

在介绍焦点卷积如何实现前先理解一下常规卷积和子流形卷积的原理。

常规稀疏卷积公式理解:

        wk对应卷积核的权重,xpk可以理解为有效点的输入特征。通过卷积得到p处的输出特征。kd以三维为例是27个子空间。

        定义输入和输出的特征空间Pin和Pout :               

        其中kd(p,Pin)是kd的子集,取决于位置p和输入特征空间Pin,形式为:

        Pout被表示为:

公式列完了,可能有点懵,接下来我举例子进行解释:

1.卷积的理解

在这个过程中我们发现卷积计算会把每一个点和对应的卷积权重进行计算。

2.以三维为例,27个子空间不一定全部都有点云数据,故引入了kd(p,Pin),确定一个点p,计算Pin的其他点和p点的偏移,然后记录在kd(p,Pin)中。

wk对应权重,xpk对应有效点,只对有效点进行计算。

3.Pout的理解:

三维空间27个子空间

最后的理解:常规稀疏卷积的通过对有效点进行卷积,考虑周边的特征情况并进行空间的扩展输出。

优点:能捕捉更多信息。

缺点:导致输出特征图不稀疏,增加内存和计算量要求。

子流形稀疏卷积:只对有效点进行稀疏卷积且输出的特征只在有效点上。

优点:保证输入和输出的稀疏一致性。效率高。

缺点:特性提取能力较弱,感受野受限。

焦点稀疏卷积公式理解:

下面对公式进行举例解释:

具体的实现方式:

1.图像信息和点云信息融合解决网络开始时的浅层区分点云的前景和背景困难的问题。    输出后再考虑一下图像信息,让后续预测更加顺畅。    图像信息可以用Resnet的几层卷积即可提供好相关信息。

2.监督怎么做: ①预测的数值乘在输出特征上面,类似于attention机制。 ②额外的加foacl loss,二分类区分前景和背景,前景是重要的。 两点结合使用

最终结果:

举一个图为例,我们可以发现在不重要的位置上红色点没有变多,可是在重要的位置上(车)红色点变多了,也就意味着关注度提高了。

  • 7
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
这篇论文主要介绍了一种稀疏结构搜索的方法来有效地调整深度神经网络中的参数,以达到更好的性能和更高的效率。作者将该方法称为Pruning with Neuron Selectivity Ratio (PNSR)。该方法的主要思想是通过对神经元的选择性比率进行剪枝,来寻找最优的网络结构。 具体来说,PNSR方法首先训练一个初始的完整模型,然后通过计算每个神经元的选择性比率来确定哪些神经元可以被剪枝。选择性比率是指在训练过程中神经元被激活的次数与总共经历的迭代次数之比。这个比率越高,说明这个神经元在网络中的作用越大,越不应该被剪枝。根据选择性比率,可以将网络中的神经元分为三类:保留、可剪枝和不可剪枝。其中保留的神经元直接保留在模型中,不可剪枝的神经元则不能被剪枝,而可剪枝的神经元则可以被剪枝,并且剪枝后不会影响网络的性能。 接下来,PNSR方法使用一种叫做“剪枝重训练”的策略来进一步优化网络结构。这种策略的基本思想是先剪枝掉一些神经元,然后重新训练网络,使其在剪枝后的结构上取得最佳性能。具体来说,PNSR方法在剪枝后使用一种叫做“结构化剪枝”的方法来调整网络的结构,使得剪枝后的网络结构更加紧凑和简单。然后,PNSR方法使用该结构再次训练网络,直到网络达到最佳性能。 最后,作者在CIFAR-10和ImageNet数据集上对PNSR方法进行了实验。实验结果表明,PNSR方法可以显著减少模型的参数数量,同时保持网络性能不变或稍微下降。这表明,PNSR方法可以有效地提高深度神经网络的效率,并有望在实际应用中得到广泛应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值