神经网络与深度学习--学习笔记(二)

文章介绍了多层前馈网络及其误差反传(BP)算法,阐述了它们在解决线性不可分问题中的作用。接着提到了动量法和自适应梯度算法如AdaGrad和Adam对优化性能的影响。重点讨论了卷积神经网络的基础,包括LeNet-5、AlexNet和VGG-16模型,以及残差网络如何解决深层神经网络的梯度消失问题。常用的数据集如ImageNet也在文中提及。
摘要由CSDN通过智能技术生成

3.多层前馈网络与误差反传算法

3.1 线性不可分问题:

无法进行线性分类。Minsky 1969年提出XOR问题

 三层感知器可识别任一凸多边形或无界的凸区域。

更多层感知器网络,可识别更为复杂的图形。

多层感知器网络,有如下定理:

定理1 若隐层节点(单元)可任意设置,用三层阈值节点的网络,可以实现任意的二值逻辑函数。 定理2 若隐层节点(单元)可任意设置,用三层S型非线性特性节点的网络,可以一致逼近紧集上的连续函数或按范数逼近紧集上的平方可积函数.

3.2 多层前馈网络

多层前馈网络的反向传播 (BP)学习算法,简称BP算法,是有导师的学习,它是梯度下降法在多层前馈网中的应用。 网络结构:见图,u、y是网络的输入、输出向量,神经元用节点表示,网络由输入层、隐层和输出层节点组成,隐层可一层,也可多层(图中是单隐层),前层至后层节点通过权联接。由于用BP学习算法,所以常称BP神经网络。

 

4. 性能优化 

4.1 动量法

4.2 自适应梯度算法 

 4.3 待解决问题

 

动量法可有效改善收敛速度,以及避免一些陷入局部极小值

AdaGrad及Adam等算法可自适应调节学习速率,加速收敛 

5.卷积神经网络基础

5.1 基本概念

 

 

 

5.2 LeNet-5网络 

5.3 AlexNet

5.4 VGG-16

 

总结 

经典网络:以“一个或多个卷积层+一个池化层“作为一个基本 单元进行堆叠,在网络尾部使用全连接层,最后以Softmax为分 类器,输出结果。

残差网络:在普通网络的基础上,将浅层的激活项通过支路直接 传向深层,克服深层神经网络中梯度消失的问题,为训练极深的 神经网络提供便利。

数据集:常见的数据集包括VOC和COCO;ImageNet较大

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值