卷积神经网络梯度消失,神经网络中梯度的概念

什么是梯度消失?如何加快梯度下降的速度

累乘中一个梯度小于1,那么不断累乘,这个值会越来越小,梯度衰减很大,迅速接近0。在神经网络中是离输出层近的参数,梯度越大,远的参数,梯度越接近0。根本原因是sigmoid函数的缺陷。

方法:1、好的初始化方法,逐层预训练,后向传播微调。2、换激活函数,用relu,leaky——relu。靠的是使梯度靠近1或等于1,避免了在累乘过程中,结果迅速衰减。

避免梯度消失和梯度爆炸的方案:使用新的激活函数Sigmoid函数和双曲正切函数都会导致梯度消失的问题。ReLU函数当x<0,的时候一样会导致无法学习。

利用一些改进的ReLU可以在一定程度上避免梯度消失的问题。例如,ELU和LeakyReLU,这些都是ReLU的变体。

深度学习中如何防止梯度消失与梯度爆炸?

为什么deep learning 能抑制梯度消失或者爆炸的问题

肯定要学会神经网络啊,因为深度学习本身就是神经网络算法,之所以叫深度学习是为了突出深度这个词。这个深度代表很多的神经网络的层数。

因为以前所说的神经网络算法没有好的训练方法,最终训练的神经网络有2到3层就是极限了,对于很多应用来说没有实际价值。

以前的主流神经网络训练方法叫反向传播,但是也解决不了随着神经网络层数的增加而梯度消失的问题。

在2006年由GeffryHiton提出使用逐层贪婪预训练的方式,使得神经网络可以高效的训练&

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值