从卷积层、激活层、池化层到全连接层深度解析卷积神经网络的原理
(参考链接:https://www.toutiao.com/a6609148733269475848/)
相关层 | 原理 |
输入层 | 均值化、归一化、PCA/白化 |
卷积层 | 图片有一个性质叫做局部关联性质,一个图片的像素点影响最大的是它周边的像素点,而距离这个像素点比较远的像素点二者之间关系不大。这个性质意味着每一个神经元我们不用处理全局的图片了(和上一层全连接),我们的每一个神经元只需要和上一层局部连接,相当于每一个神经元扫描一小区域,然后许多神经元(这些神经元权值共享)合起来就相当于扫描了全局,这样就构成一个特征图,n个特征图就提取了这个图片的n维特征,每个特征图是由很多神经元来完成的。 |
激励层 | 把卷积层的结果做非线性映射。 |
池化层 | 池化层:降低了各个特征图的维度,但可以保持大分重要的信息。池化层夹在连续的卷积层中间,压缩数据和参数的量,减小过拟合,池化层并没有参数,它只不过是把上层给它的结果做了一个下采样(数据压缩)。 |
全连接层 | 在全连接层中所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。当前面卷积层抓取到足以用来识别图片的特征后,接下来的就是如何进行分类。 通常卷积网络的最后会将末端得到的长方体平摊成一个长长的向量,并送入全连接层配合输出层进行分类。比如,在下面图中我们进行的图像分类为四分类问题,所以卷积神经网络的输出层就会有四个神经元。 |
卷积神经网络核心 | 我们可以认为全连接层之间的在做特征提取,而全连接层在做分类 |
keras系列︱Sequential与Model模型、keras基本结构功能(一)
参考链接:https://blog.csdn.net/sinat_26917383/article/details/72857454
caffe中参数设置的解析
https://blog.csdn.net/u013989576/article/details/70859223
TensorFlow中padding卷积的两种方式“SAME”和“VALID”
最近在用tensorflow搭建卷积神经网络,遇到了一个比较棘手的问题,我一直理解的padding有两个值,一个是SAME,一个是VALID,如果padding设置为SAME,则说明输入图片大小和输出图片大小是一致的,如果是VALID则图片经过滤波器后可能会变小。