【深度学习课程笔记】(一)神经网络基础

目录

 

 激活函数

单层感知器

多层感知器

梯度下降,BP算法

梯度消失

逐层预训练

自编码器

受限玻尔兹曼机RBM

深度置信网络DBN,深度玻尔兹曼机DBM

一般玻尔兹曼机BM

解决梯度消失时间轴

思考

下节预告


 激活函数

 

单层感知器

多层感知器

接下来解决非线性,如异或(单层感知机解决不了)

解决同或 非线性问题

梯度下降,BP算法

sigmoid函数梯度消失问题

 

左图为凸函数可以找到全局的一个极值点,而右图是非凸函数,非常依赖初始值的选取,而决定是否找到全局的极值点。

 

梯度消失

由于 sigmoid 激活函数  的梯度容易落到饱和区,即趋向于0,在反向传播时,前面的节点由于计算梯度时,这个激活函数的导数趋向于0,导致梯度消失,而导致可能只能更新后面几层的参数,无法更新前面的节点。导致神经网络无法通过反向传播,梯度下降方法来更新参数。

 

 

逐层预训练

层数越高局部极小值最多,容易落到差的局部极小值。

预训练使得找到很好的初始值的参数。

经过逐层预训练,解会相对收敛,不容易落到很差的点里。 二是训练会更快。(有一个保证,初始就不会太差)

逐层预训练难点在于中间可能有很多隐层学习第一个隐层h1时是看不到y的,学习h5时才能看到y。即学习中间的隐层时,只有输入x,没有监督信息的。

两种方式 解决。

自编码器

中间的编码就是想要学习的特征

 

受限玻尔兹曼机RBM

 

深度置信网络DBN,深度玻尔兹曼机DBM

 

一般玻尔兹曼机BM

逐层预训练已经成为历史了

只是让初始值还不错,并没有根本解决梯度消失问题

 

解决梯度消失时间轴

 

思考

 

 

下节预告

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值