神经网络2

目录

卷积神经网络

1 进化史

 2 基本概念

LeNet-5网络

1 网络介绍

2 网络结构详解


卷积神经网络

1 进化史

 

 

 

 2 基本概念

全连接网络:链接权过多,难算难收敛,同时可 能进入局部极小值,也容易产生过拟合问题。

局部连接网络:顾名思义,只有一部分权值连接。 部分输入和权值卷积。

填充(Padding):也就是在矩阵的边界上填充一些值,以 增加矩阵的大小,通常用0或者复制边界像素来进行填充。

步长(Stride): 如图步长为2

 多通道卷积: 如RGB

 多通道卷积: 如RGB

 池化(Pooling): 使用局部统计特征,如均值或最大值。解决特征过多问题

 

卷积神经网络结构:

  • 构成:由多个卷积层和下采样层构成,后面可连接全连接网络
  • 卷积层:k个滤波器
  • 下采样层:采用mean或max
  • 后面:连着全连接网络

 

 学习算法:

 

 

 

LeNet-5网络

1 网络介绍

网络提出:

网络结构:

 

2 网络结构详解

C1层:

  • 6个Feature map构成
  • 每个神经元对输入进行5*5卷积
  • 每个神经元对应55+1个参数,共6个feature map,2828个神经元,因此共有(55+1)6(2828)=122,304连接

 S2层(Pooling层):

C3层(卷积层): 、

 

S4层:

与S2层工作相同

C5层:

120个神经元
每个神经元同样对输入进行5*5卷积,与S4全连接
总连接数(5516+1)*120=48120


F6层:

84个神经元
与C5全连接
总连接数(120+1)*84=10164


输出层:

由欧式径向基函数单元构成
每类一个单元
输出RBF单元计算输入向量和参数向量之间的欧式距离


网络结构:

 

网络说明:

  • 与现在网络的区别
    • 卷积时不进行填充(padding)
    • 池化层选用平均池化而非最大池化
    • 选用Sigmoid或tanh而非ReLU作为非线性环节激活函数
    • 层数较浅,参数数量小(约为6万)
  • 普遍规律
    • 随网络深入,宽、高衰减,通道数增加
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

weixin_45352056

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值