本文旨在记录batch normalization的学习笔记。
什么是normalization?
具体可以参考我的博客:均值方差归一化和最值归一化
normalization的作用
参考莫凡教程:https://zhuanlan.zhihu.com/p/24810318
总结一下
在我看来,一个直观的例子是:
原始数据本来是很有特点的,比如中间数据分布很少,向两边依次增多。如下图:
本文旨在记录batch normalization的学习笔记。
具体可以参考我的博客:均值方差归一化和最值归一化
参考莫凡教程:https://zhuanlan.zhihu.com/p/24810318
在我看来,一个直观的例子是:
原始数据本来是很有特点的,比如中间数据分布很少,向两边依次增多。如下图: