1. 卷积神经网络
- 全连接神经网络的瓶颈
图越大,参数越多,计算复杂,容易过拟合。
- 卷积神经网络的主要层
1.1 卷积网络中的卷积核
1.1.1卷积核
- 卷积神经网络中的卷积操作
在多加几个卷积核
- 卷积核的步长(stride)
由此可见卷积后图像变小,所以要边界填充
- 特征响应图组尺寸计算
1.1.2 池化操作
1.减少运算量2.增大感受野3.非极大抑制
- 池化操作是对每一个特征响应图独立进行
- 对应特征响应图某个区域进行池化就是在改区域上指定一个值来代表整个区域(有点类似于非极大抑制)
进行操作后,特征响应图中的75%的响应信息都丢掉,但不改变特征响应图的个数。
1.1.3 图像增强
- 增强操作
1)镜像
2)随机缩放&抠图
3)色彩抖动
…
2. 经典网络解析
2.1 AlexNet
更早的是LeNet5
用于解决非常简单的问题
2012年提出,在ImageNet大规模视觉识别挑战赛冠军,精度提升超过10个百分点
比赛中精度
1)AlexNet的结构
其中,网络输入之前要去均值
第一层CONV1
第二层MAX POOL
第三层NORM1
池化层
最后全连接层
重要说明
问:
2.3 VGG
思考:
1)
2)
3)
2.4 Google Net
GoogleNet的主要创新
优点:层数更深,参数更少,计算效率更高、非线性表达能力也更强。
2.5 ResNet
为解决这一问题,提出残差网络
问:为什么残差网络性能这么好