目录
卷积神经网络
1 进化史
2 基本概念
全连接网络:链接权过多,难算难收敛,同时可 能进入局部极小值,也容易产生过拟合问题。
局部连接网络:顾名思义,只有一部分权值连接。 部分输入和权值卷积。
填充(Padding):也就是在矩阵的边界上填充一些值,以 增加矩阵的大小,通常用0或者复制边界像素来进行填充。
步长(Stride): 如图步长为2
多通道卷积: 如RGB
多通道卷积: 如RGB
池化(Pooling): 使用局部统计特征,如均值或最大值。解决特征过多问题
卷积神经网络结构:
- 构成:由多个卷积层和下采样层构成,后面可连接全连接网络
- 卷积层:k个滤波器
- 下采样层:采用mean或max
- 后面:连着全连接网络
学习算法:
LeNet-5网络
1 网络介绍
网络提出:
网络结构:
2 网络结构详解
C1层:
- 6个Feature map构成
- 每个神经元对输入进行5*5卷积
- 每个神经元对应55+1个参数,共6个feature map,2828个神经元,因此共有(55+1)6(2828)=122,304连接
S2层(Pooling层):
C3层(卷积层): 、
S4层:
与S2层工作相同
C5层:
120个神经元
每个神经元同样对输入进行5*5卷积,与S4全连接
总连接数(5516+1)*120=48120
F6层:
84个神经元
与C5全连接
总连接数(120+1)*84=10164
输出层:
由欧式径向基函数单元构成
每类一个单元
输出RBF单元计算输入向量和参数向量之间的欧式距离
网络结构:
网络说明:
- 与现在网络的区别
- 卷积时不进行填充(padding)
- 池化层选用平均池化而非最大池化
- 选用Sigmoid或tanh而非ReLU作为非线性环节激活函数
- 层数较浅,参数数量小(约为6万)
- 普遍规律
- 随网络深入,宽、高衰减,通道数增加