参考引用:https://zhuanlan.zhihu.com/p/634882615
多卷积核
对于一个卷积核可以认为是具有识别某一类元素(特征)的能力,而对于一些复杂结构的数据来说仅仅只是通过一类特征来进行辨识往往是不够的,因此,通常来说我们都会通过多个不同的卷积核来对输入进行特征提取得到多个特征图,然再输入到后续的网络中进行后续任务。
卷积的计算
1. 单通道单卷积核
计算过程:
这部分的计算过程:
1
⋅
0
+
2
⋅
0
+
0
⋅
1
−
1
⋅
0
+
1
⋅
1
+
0
⋅
1
+
2
⋅
1
−
1
⋅
0
−
2
⋅
1
⏟
kernel
+
1
⏟
bias
=
2
\underbrace{1\cdot0+2\cdot0+0\cdot1-1\cdot0+1\cdot1+0\cdot1+2\cdot1-1\cdot0-2\cdot1}_{\text{kernel}}\underbrace{\;\;+1\;\;}_{\text{bias}}=2\;\;\;\;\;\;\; \\
kernel
1⋅0+2⋅0+0⋅1−1⋅0+1⋅1+0⋅1+2⋅1−1⋅0−2⋅1bias
+1=2
2. 单通道多卷积核
计算结果:
3. 多通道单卷积核
计算过程:
这个部分的计算过程:
(
0
⋅
2
+
2
⋅
0
+
0
⋅
0
+
0
⋅
1
+
2
⋅
0
+
0
⋅
1
+
2
⋅
0
+
1
⋅
3
+
2
⋅
0
)
⏟
channel 1
+
(
0
⋅
1
+
0
⋅
0
+
0
⋅
1
+
1
⋅
0
+
0
⋅
0
+
0
⋅
0
+
1
⋅
1
+
0
⋅
1
+
0
⋅
1
)
⏟
channel 2
+
(
1
⋅
0
+
1
⋅
0
+
0
⋅
1
+
0
⋅
1
+
1
⋅
1
+
0
⋅
1
+
0
⋅
1
+
1
⋅
1
+
1
⋅
0
)
⏟
channel 3
+
1
⏟
bias
=
3
+
1
+
2
+
1
=
7
\begin{aligned} &\underbrace{(0\cdot2+2\cdot0+0\cdot0+0\cdot1+2\cdot0+0\cdot1+2\cdot0+1\cdot3+2\cdot0)}_{\text{channel 1}}\\ +& \underbrace{(0\cdot1+0\cdot0+0\cdot1+1\cdot0+0\cdot0+0\cdot0+1\cdot1+0\cdot1+0\cdot1)}_{\text{channel 2}}\\ +& \underbrace{(1\cdot0+1\cdot0+0\cdot1+0\cdot1+1\cdot1+0\cdot1+0\cdot1+1\cdot1+1\cdot0)}_{\text{channel 3}}\\ +&\underbrace{\;\;1\;\;}_{\text{bias}}=3+1+2+1=7 \end{aligned}\;\;\;\;\;\;\; \\
+++channel 1
(0⋅2+2⋅0+0⋅0+0⋅1+2⋅0+0⋅1+2⋅0+1⋅3+2⋅0)channel 2
(0⋅1+0⋅0+0⋅1+1⋅0+0⋅0+0⋅0+1⋅1+0⋅1+0⋅1)channel 3
(1⋅0+1⋅0+0⋅1+0⋅1+1⋅1+0⋅1+0⋅1+1⋅1+1⋅0)bias
1=3+1+2+1=7
4. 多通道多卷积核
计算结果:
深度卷积
所谓深度卷积就是卷积之后再卷积,并且卷积的次数可以是几次,也可以是几十次、甚至可以是几百次。为什么需要深度卷积?可知全连接网络中我们可以通过更深的隐藏层来获取到更高级和更抽象的特征,以此来提高下游任务的精度。因此,采用深度卷积也是处于同样的目的。