官方文档:https://keras.io/layers/convolutional/#zeropadding2d
https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html VGG16架构
#【搬运】conv卷积层:
1.相当于一个特征提取器(特征增强,消除噪声)2.提供了位置信息3.减少了参数个数
#【搬运】pooling池化层:#1.提取特征(减少之前的特征维数)#2.减少训练参数#3.进而防止过拟合(泛化能力加强)。 激活函数:增加网络的非线性表达能力。
#1 过滤越来越多的卷积层,提取越来越高级的特征#2 Max pooling和Global Average Pooling用来只保留这些特征中最强的,保证特征的位置与旋转不变性,减少模型参数数量,减少过拟合问题
————————————————————————————
https://blog.csdn.net/qq_39521554/article/details/81385159
【半搬运】对全连接层(fully connected layer)的通俗理解:
全连接层(fully connected layers,FC)(通过矩阵向量乘积)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间的话,全连接层则对前面的特征(通过“全局平均值global average pooling”的方法减少全连接的参数)做加权和,将学到的“分布式特征表示”(高度提纯的特征)映射到样本标记空间。
【https://blog.csdn.net/m0_37407756/article/details/80904580
卷积取的是局部特征,全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。因为用到了所有的局部特征,所以叫全连接。】
在实际使用中,全连接层可以转化为卷积核为1x1的卷积。
https://www.cnblogs.com/ymjyqsx/p/9451739.html
卷积层本来就是全连接的一种简化形式:不全连接+参数共享,把局部视野之外的弱影响直接抹为零影响,同时还保留了空间位置信息(卷积层不同位置的权值共享