经典卷积神经网络
说明:本文和上一篇Tensorflow基础内容是同系列课程摘录的笔记,仅供个人学习使用,不确保一定严谨正确。
一、LeNet(1998)
-
两层卷积计算层,三层全连接
-
卷积网络开篇之作,共享卷积核,减少网络参数
二、AlexNet(2012)
-
Top5错误率16.4%
-
五层卷积计算层,三层全连接
-
使用relu激活函数,提升训练速度,使用Dropout函数,缓解过拟合
三、VGGNet(2014)
-
Top5错误率7.3%
-
13层卷积层3层全连接层
-
小尺寸卷积核减小参数,网络结构规整,适合并行加速
四、InceptionNet(2014)
-
Top5错误率6.67%
-
1个3*3卷积层+四个Inception结构块
-
一层内使用不同尺寸的卷积核,提升感知力,使用批标准化,缓解梯度消失
五、ResNet(2015)
-
Top5错误率3
-
层间残差跳连,引入前方信息,缓解模型退化,使神经网络层数加深成为可能