sgd 参数 详解_Batch Normalization详解

本文详细介绍了Batch Normalization在深度学习中的作用,包括其加速学习过程、提高神经网络稳定性的特点,以及在训练和测试时的不同处理方式。通过归一化输入特征,Batch Normalization能有效减少对超参数的敏感性,支持深层神经网络的训练。
摘要由CSDN通过智能技术生成

前言

Batch Normalization是深度学习发展过程中出现的最重要的算法之一,Batch Normalization会使你的参数搜索问题变得容易,使神经网络对超参数的选择更加稳定,也使你更容易训练深层神经网络。

论文链接:https://arxiv.org/abs/1502.03167

一些符号说明

假设现在有如下神经网络:

a8a274be78aa191b72318f3af8fefc51.png
神经网络示例

我们把输入记为

向量),输入当作第0层,最后一层为第
层。第
层的节点数记为
,则上图中

上图中每个节点的计算方式如下,其中

是激活函数的输出值,
是激活函数。

a2f801b8876a200050b9084f727b2767.png

我们把第

层中的激活函数输出值记为
是个向量) ,则
。我们把输入
看做第0层的激活值
,最后一层的激活值为网络的预测输出,即
。计算
的权重矩阵记为
,第
层的偏移值记为
是个向量)。

Batch Normalization

我们知道在训练神经网络时,归一化输入特征可以加速学习过程。那么在深层神经网络中,我们归一化

是否也还有益于
的训练呢?严格来说,我们这里归一化的是
而不是

这里关于到底是归一化

还是
有一些争议
,在实际使用中我更
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值