卷积和可分卷积的效率对比
文章概要
概要:这篇博文主要是介绍了在深度学习中使用广泛的卷积方法,其实说其为滤波(在信号处理领域,图像处理领域使用这个说法可能更多)也是不错的。文章介绍了:
- 卷积与互相关
- 深度学习中的卷积(单通道版本,多通道版本)
- 3D 卷积
- 1×1 卷积
- 卷积算术
- 转置卷积(去卷积、棋盘效应)
- 扩张卷积
- 可分卷积(空间可分卷积,深度可分卷积)
- 平展卷积
- 分组卷积
- 混洗分组卷积
- 逐点分组卷积
随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习中关于卷积的的基础内容。
提示:以下是本篇文章正文内容。
一、卷积的本质?
在信号处理、图像处理和其它工程/科学领域,卷积都是一种使用广泛的技术。在深度学习领域,卷积神经网络(CNN)这种模型架构就得名于这种技术。但是,深度学习领域的卷积本质上是信号/图像处理领域内的互相关(cross-correlation)。这两种操作之间存在细微的差别。
无需太过深入细节,我们就能看到这个差别。在信号/图像处理领域,卷积的定义是:
其定义是两个函数中一个函数经过反转和位移后再相乘得到的积的积分。下面的可视化展示了这一思想:
信号处理中的卷积。过滤器 g 经过反转,然后再沿水平轴滑动。在每一个位置,我们都计算 f 和反转后的 g 之间相交区域的面积。这个相交区域的面积就是特定位置出的卷积值。
这里,函数 g 是过滤器。它被反转后再沿水平轴滑动。在每一个位置,我们都计算 f 和反转后的 g 之间相交区域的面积。这个相交区域的面积就是特定位置出的卷积值。
二、卷积和可分卷积
1.空间卷积
卷积又可以分为2D空间卷积(二维平面空间的卷积)和3D空间卷积(三维空间卷积),其本质是一样,通俗来讲,就是都是根据周围数据计算,得出一个维度更小的数据(如果是得到维度更大的数据,则叫转置卷积):
1.1----2D空间卷积
如图所示:
上图是用一个3 × \times × 3的卷积核(也可以叫模板),去对一个5 × \times