卷积过程贯穿于整个神经网络,尤为重要
卷积核是矩阵,是对输入矩阵的线性变换(旋转、缩放、剪切),输出feature map
举例:335的卷积核,转换成矩阵527 输入图片3100100 转换矩阵2710000,输出feature map 5*10000
从例子出来,我们发现,我们需要对卷积核与输入图片进行一维展开,卷积核H = 卷积核数量(5)、卷积核W = 卷积核尺寸输入图片维度(333)、输入图片H = 卷积核W、输入图片W = 输入图片尺寸(100100)——————输出图片H = 卷积核H、输出图片W = 输入图片W
问题:1、输入图片在转换成矩阵过程中,每行的数据是否一样
2、卷积核每列的数据又是什么,每行的数据是否一样
难点在于对卷积核及输入矩阵的构造,以后明白了再更新
参考:https://www.jianshu.com/p/a1790d5f5770
防止过拟合一般都会加快收敛速度
BN归一化:防止过拟合,增加收敛速度
padding:防止图像越来越小,图像边界丢失
激活函数:RELU(负数为0,正数为本身)增加非线性,防止欠拟合
池化层的作用:保留特征,增大感受野,降低维度,防止过拟合
全连接层的作用:映射一个加权向一维量,用作分类
正则化是对损失函数的参数进行限制,从而防止了过拟合,L1正则化就是取绝对值
卷积神经网络中,有时候会重复进行相同的卷积操作,目的是增加非线性,以保证相同的感受野同时,减少参数量
dropout 使神经元不动作,防止过拟合,增加数据效率