Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift论文解读

本文探讨了BatchNorm在深度神经网络中的关键作用,它通过内部协变量转移的解决策略,确保每一层输入的稳定性,从而加快收敛速度,提升模型泛化能力。BN不仅提升训练效率,还作为正则化手段改善模型性能,同时简化了调参过程。
摘要由CSDN通过智能技术生成

论文:链接

前言

机器学习中有个很重要的假设:IID 独立同分布假设,就是假设训练数据和测试数据是满足相同的分布,这是通过训练数据获得的模型在测试数据上表现效果好的一个基本保障,也就是说模型的泛化能力。那BatchNorm的作用是什么呢?BatchNorm就是在深度神经网络的训练过程中使得每一层神经网络的输入保持相同的分布。

其实BatchNorm的提出也是为了解决深度神经网络训练困难的问题,像Relu、residual network也是为了解决这一问题的。

Q:为什么深度神经网络随着网络深度的加深,训练起来越困难,收敛越来越慢?

一、BN的提出

1、internal covariate shift

【We define Internal Covariate Shift as the change in the distribution of network activations due to the change in network parameters during training.】
论文中作者提出在训练深度神经网络时经常会出现训练困难的问题,因为每一层参数迭代更新后,上一层网络的输出经过这一层网络的计算,数据的分布会发生变化,因此为下一层网络的学习带来困难。

在深度学习中包含很多隐藏层,在训练过程中,各层的参数不停的在变化,所以每个隐藏层都面临着covariate shift,也就是说在训练过程中,隐藏层的输入分布总是在变化,这也就违背

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值