sigmoid激活函数以及一些传统的激活函数的缺点:
1.在求导的过程中,求导很麻烦
2.当网络比较深的时候会出现梯度消失的现象
Relu就解决了这两个痛点
过拟合
本文的作者使用Dropout的方式解决过拟合的问题
可以这样理解:
Dropout操作变相的减少了网络训练的参数,从而达到减少过拟合的作用
conv1:图片大小高224,宽224,深度3[224,224,3]
卷积核大小1111
padding:[1,2]表示左边加上一列0,右边加上2列0(图中没有说明,论文和源码可以看出)
步距:4
卷积核的个数:482 = 96
卷积之后得到555596
最大池化下采样层:池化操作只会改变特征矩阵的高度与宽度,不会改变深度
卷积层2 :
全连接层:只需要将maxpool最后的输出进行展平