前言
Batch Normalization是深度学习发展过程中出现的最重要的算法之一,Batch Normalization会使你的参数搜索问题变得容易,使神经网络对超参数的选择更加稳定,也使你更容易训练深层神经网络。
论文链接:https://arxiv.org/abs/1502.03167
一些符号说明
假设现在有如下神经网络:
![a8a274be78aa191b72318f3af8fefc51.png](https://img-blog.csdnimg.cn/img_convert/a8a274be78aa191b72318f3af8fefc51.png)
我们把输入记为
上图中每个节点的计算方式如下,其中
![a2f801b8876a200050b9084f727b2767.png](https://img-blog.csdnimg.cn/img_convert/a2f801b8876a200050b9084f727b2767.png)
我们把第
Batch Normalization
我们知道在训练神经网络时,归一化输入特征可以加速学习过程。那么在深层神经网络中,我们归一化
这里关于到底是归一化