2.3.2 Batch Norm介绍

正则化网络的激活函数

Batch归一化会使你的参数搜索变得很容易,使神经网络对超参数选择变得更加稳定。超参数范围会更庞大,工作效率也会更好。也会让你训练出更为深层次的神经网络。下面我们具体介绍一下Batch归一化

这里写图片描述

如图右侧的圈圈所示,我们之前已经学过了通过归一化手段如何将扁平的圈圈变成比较一般的圆形,但是这只是对逻辑回归而言的,对于神经网络应该怎么做呢?

我们在归一化的例子中看到了,如果对x1,x2和x3进行归一化,那么可以学到更好地w和b,同样的道理,在神经网络里,我们要想学到不错的w3和b3,那么需要对a2进行归一化处理。

那么问题是对于隐藏层,比如说这里的a2,能否实现归一化呢?

Batch归一化就可以做到这一点。实际上我们是对Z2进行的归一化而不是对a2进行的归一化。下面我们来介绍一下如何进行归一化

这里写图片描述

如图所示,假设你又一些隐藏单元,从z1一直到zm,这些都是 Z[l] Z [ l ] 层的。

对z实行了正则化之后我们有如下公式:

Z(i)˘=γZ(i)norm+β Z ( i ) ˘ = γ Z n o r m ( i ) + β

这里 γ γ β β 是模型的学习参数。我们可以使用梯度下降或者一些其他的梯度下降法。比如说momentum或者Adam来更新这两个参数,就如同神经网络的权重一样。

事实上,如果

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Einstellung

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值