深度学习中batch_normalization的理解

下面是自己对神经网络中batch_normalization(批标准特征化)的一个小结,很容易理解:

1.让每一层神经网络处理的数据更加具有规律性,从而神经网络也可以更加容易学习到数据中的规律。
2.对于一些激励函数,比如tan,激励函数只对一部分区间的数据比较敏感,其他地方的数据变化,做出的反应不大。
比如下面一个图:
这里写图片描述

数据只对图中红色区域比较敏感,而batch)normalization能把数据分布变到红色区域,发挥激活函数的作用。

3.BN层一般加在输出(比如全连接层)和激励函数之间,这样才起作用。

下面一个图是BN的简单数学原理:
这里写图片描述

最后一个公式是反标准化,主要是红色的两个参数,这两个参数可以进行训练,如果BN没有起到作用,可以缓解BN对数据处理造成的影响。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值