AlexNet网络特点:
(
1
)首次利用
GPU
进行网络加速训练。
(
2
)使用了
ReLU
激活函数,而不是传统的
Sigmoid
激活函数以及
Tanh
激活函数。
(
3
)使用了
LRN
局部响应归一化。
(
4
)在全连接层的前两层中使用了
Dropout
随机失活神经元操作,以减少过拟合。
网络结构参数
![](https://img-blog.csdnimg.cn/direct/3228b238961644da9f77e5b136941296.png)