AlexNet网络特点:
(
1
)首次利用
GPU
进行网络加速训练。
(
2
)使用了
ReLU
激活函数,而不是传统的
Sigmoid
激活函数以及
Tanh
激活函数。
(
3
)使用了
LRN
局部响应归一化。
(
4
)在全连接层的前两层中使用了
Dropout
随机失活神经元操作,以减少过拟合。
网络结构参数
![](https://i-blog.csdnimg.cn/blog_migrate/0b2bf644c5142f58e1bffe464359da49.png)