前言:作为一个刚刚学习深度学习的小白和一个第一次在CSDN上写博客的新用户,在这里分享一下初步学习了AlexNet之后对这个网络的理解,如果大家看到错误,希望加以指正。
一言不合先摆上一张AlexNet中最最重要的核心构架图:
好了,看了这张结构图,我们就可以慢慢的品味他的结构和特色啦!
AlexNet的主要参数:
- 结构:8层
- 卷积层:5层
- 全连接层:3层
- 神经元数目:65万
- 参数个数:6000万
- 输入的图片尺寸:224x224x3
- 卷积核:
conv1:11x11x3,步长为4,卷积核个数为96
conv2:5x5x48,步长为1,卷积核个数为256
conv3:3x3x256,步长为1,卷积核个数为384
conv4:3x3x192,步长为1,卷积核个数为384
conv5:3x3x192,步长为1,卷积核个数为256
AlexNet网络构架
通过上面的图可以很清晰的看出AlexNet的结构(顺便再看看一开始附上的权威结构图):
第一、第二卷积层后面是重叠的最大池化层,第三个、第四个和第五个卷积层都是直接相连的。第5个卷积层后面还有一个重叠的最大池层,它的输出会进入两个全连接层。第二个全连接层可以给softmax分类器提供1000类标签。
(这里简单讲讲重叠池带来的好处:使用重叠池的方案,将原有的前一和前五的错误率分别降低了0.4%和0.3%,产生了等效维度的输出。并且通过训练得知,应用了重叠池的模型更不容易过度拟合,当然减少过度拟合AlexNet还运用了别的方式,在后文会具体讲到)
在所有的卷积层和全连接层之后,都应用了ReLU非线性函数输出。第一和第二个卷积层都应用ReLU非线性函数,然后进行局部标准化,最后执行pooling操作方法。
处理过程:
第一层:
1.输入Input的图像规格: 224x224x3(三通道RGB图像),后期调整为