神经网络训练细节

本文章中截图来自斯坦福大学深度学习课程

权重初始化

1.当用0初始化权重时会发生什么?
    由于权重都为0,给定一个输入,每个神经元将在输入数据上有同样的操作,输出同样的值,得到相同的梯度,使用相同的方式更新,从而得到相同的神经元。 

2.当权重初始化值太小时:激活值逐渐变成0,梯度也会变成0,因为不断乘以这么小的数,所有的都会变成0

3.当权重初始化值太大时:激活值饱和,梯度接近0

数据预处理

1.在卷积神经网络中,中心化和归一化时非常常用的手段,它会使数据分布均值为0,方差为1
   如果神经网络中某一层的输入均值不为0,或者方差不为1,该层网络权重矩阵的微小摄动就会造成该层输出的巨大摄动,从而造成学习困难
Batch Normalization方程

右边第三个公式分子应该是减去均值,图片中写错了


梯度下降

  SGD缺点:
  1.沿浅层进展非常缓慢,沿着陡峭的方向抖动
2.局部极小点或鞍点

3.容易受噪声影响

解决方法:加入动量项
结果:解决了上述问题
速度初始化为0就行



  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值