[论文笔记] [2015] [ICML] Batch Normalization
这篇论文的主要工作就是提出了如今深度学习常见的 Batch Normalization,来加速深层网络训练的收敛,以及在 Inception v1 的基础上做了一些训练方式和结构上的改进(Inception v2),其在 ImageNet 分类任务上是超越了当时最好的成绩:4.9% top-5 validation error。Motivation这篇论文拟解决的问题是深度学习中很关键的问题,深度神经网络模型的训练为什么困难、收敛慢? 这个问题的解决在之前的工作中,有从尝试新的激活函数角度,如 ReLU





