Batch Normalization--全连接神经网络和卷积神经网络实战

Batch Normalization原理

网上博客一大堆,说的也很明白,这里就简单的说一下我的个人理解:
  1. 对每一个特征值进行 0均值化,利于神经网络拟合时,对于自身的参数b,无需修改很多次,就可以达到收敛。(因为b的初始值是设为0的)
  2. 去相关化,由于图像信息相邻像素间的信息有很多是相关的,去相关虽然有一个的训练精度损失,但是更有易于分类。

Batch Normalization好处

  1. 训练收敛速度快!
  2. 训练对于drop_out, 正则化参数, 衰减系数等容错能力更强!
  3. 还有很多优点,但博主现在还没有深入研究

全连接BN和非BN的对比

这里写图片描述

上图是没有采用BN时候,利用SGD+动量法来优化的损失函数和分类准确率的变化趋势。
再来看一下采用了BN算法的结果

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值