五个经典神经网络 LeNet: 卷积开篇, 卷积核共享,减少参数。 AlexNet: 使用Relu激活函数,提升训练速度,Dropout 避免过拟合。 VGGNet: 小尺寸卷积核,减少参数,提升速度,适合 多个机器并行加速。 Incepetion Net: 同一层网络,不同卷积核,提升模型感知力。 ResNet: 引入残差跳连,避免 网络层数增加引起的 模型蜕化。