【文章阅读】Submanifold Sparse Convolutional Networks

Brief

 最近看到很多的卷积结构都采用了subm层,很好奇这是个什么结构,然后无意间看到了这一篇文章,应该就是目前比较通用的结构。例如目前在榜单前3名的 p a r 2 par^2 par2的如下结构,采用的就是这种单元结构搭建的。
在这里插入图片描述

Abstruct

目前的卷积网络都是用于对密集表达的处理,但是很多数据都是稀疏的;因此作者提出的稀疏卷积操作用于处理稀疏点,作者指出该就够的卷积仅仅是在子流行结构上操作,而不是对网络的每一层进行扩张

1 Introduction

  • 卷积在很多密集数据中取得了很多的成功,因此很多结构都直接采用先转化为密集表达的形式。但是grid的表示对高纬度的数据而言,会出现维度灾难的
  • 目前的一些规整化网络:FLOPsOctNets等,但是这里作者指出此等网络的问题“dilate” the sparse data in every layer

什么是“dilate” the sparse data in every layer,我的理解是,卷积实际上是一种心态学操作,每一层的卷积都会在上一层的基础上扩大空间信息域。但是这有什么弊端吗,我反而觉得这样可以做到信息传递的作用。

  • 作者的工作就是在不改变稀疏度的基础上,实现稀疏卷积。也就是只对有值的位置坐卷积。
  • 采用这种结构,最终可以以减少50%的空间消耗。

2 Motivation

  • 作者表示,虽然有了一些稀疏卷积的工作,但是实际 上卷积的操作并没有被改变以适应稀疏点云的特性

In this paper, we argue that the framework described above is unduly restrictive, in particular, because the convolution operation has not been modified to accommodate the sparsity of the input data.

2.1 Submanifold Dilation

  • 作者首先解释了一下目前的膨胀稀疏卷积的问题,如下图,如果说对图一采用以前的稀疏卷积的形式,那么作一次 3 × 3 3×3 3×3的卷积后,就会丢失一些稀疏特性,再做一次,稀疏行就会更少了。特征就不会捕捉到该流型结构。
    在这里插入图片描述

2.2 Very Deep Convolutional Networks

  • 在卷积中,一般小的核比较适用于深层的网络结构,比如一些VGG,ResNet等结构,但是作者指出,这些结构都不能适用当前的稀疏卷积去实现,就是因为深度过深导致了感受野更大,随后模糊信息更严重,稀疏性减少,流型结构丢失。

3 (Valid) Sparse Convolutions: SC and VSC

SC

作者给出了SC结构 ( m , n , f , s ) (m,n,f,s) (m,n,f,s),表示含义{m的输入维度,n个输出维度,f为核大小,s表示stride},同样SC支持了非方形的核结构,(可以用于实现inception的结构)

  • 和一般的卷积最大的区别在于。如果一开始输入的数据中该ground state是 non-active的,那么最后的输出也是non-active的。

An SC convolution differs from a regular convolution in that it discards the ground state for non-active
sites by assuming that the input from those sites is exactly zero.

VSC

  • VSC结构是通过SC结构修改过来的,对于SC而言,可以出现输出的fea-map的大小和输入的不一样,但是对VSC来说则是一样的。作者首先是进行的一个padding操作,接着也限制了那些仅仅是只有在输入是active的,输出才能是activate。

内存占用

在这里插入图片描述

3.1 Submanifold Convolutional Networks

作者采用这个设计的模块搭建二维中常用的block如下:
在这里插入图片描述

  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
卷积稀疏编码(convolutional sparse coding)是一种基于深度学习模型的方法,用于学习输入数据的稀疏表示。它在计算机视觉和模式识别领域得到了广泛应用。 与传统的稀疏编码方法不同,卷积稀疏编码利用了卷积层的结构和权值共享的特性。它通过在输入数据上应用卷积操作和非线性激活函数来提取特征,并使用稀疏性约束来学习这些特征的表示。 卷积稀疏编码的一个关键思想是特征共享。通过共享权值,可以减少需要学习的参数量,并使模型具有良好的泛化能力。这种共享的方式使得卷积稀疏编码在处理图像、视频等高维数据时更加有效。 卷积稀疏编码的训练过程可以通过最小化重构误差和稀疏性约束来实现。通过最小化重构误差,模型可以学习到输入数据的低维表示,从而具有压缩和降维的效果。同时,通过稀疏性约束,模型可以选择性地激活少量的特征,从而实现特征的稀疏表示。 卷积稀疏编码在图像处理领域的应用非常广泛。它可以用于图像去噪、图像恢复、图像合成等任务。此外,随着深度学习的发展,卷积稀疏编码也被应用于图像分类、目标检测和语义分割等视觉任务中。 总之,卷积稀疏编码是一种利用卷积层和权值共享的方法,用于学习输入数据的稀疏表示。它具有良好的泛化能力和较好的压缩和降维效果,已在图像处理和计算机视觉领域取得了很好的应用效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值