为什么深层网络很难训练

为什么需要深层神经网络

第一:层数的增多会使每一层任务都变得简单,例如计算乘法,可以在第一层计算按位加法,第二层计算两个数的加法,第三层计算乘法,这样的算法逻辑更加简单,清晰。也就是说中间层可以做更深的抽象。
第二:数学上可以证明只有一层隐藏层的神经网络可以表示任意的函数,但是神经元的数量却是指数级增加的,但是使用深层网络可以解决这个问题。
所以综上深层神经网络可以解决浅层神经网络无法轻易解决的问题。

但是如果我们使用随机梯度下降训练深层神经网络的话,就会发现结果并没有比浅层神经网络好。这是因为不同的层学习速度差很多,后面的层学习更快,这是因为我们使用的是基于梯度的学习算法。

The vanishing gradient problem

在使用MLP识别MNIST时我们会发现,一味的增加隐藏层数量并不会给最终的结果带来好处,但是上文已经说了层数的增加可以使神经网络提升,那么问题的原因就是增加后的网络的权重不对。
δl

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值