BatchNormalization:解决神经网络中的内部协变量偏移问题

本文探讨了神经网络中‘内部协变量偏移’问题,指出训练集和测试集的独立同分布假设可能导致训练复杂性增加。为解决这个问题,提出了在激活函数之前应用批量归一化(BatchNormalization, BN)的方法,以确保各层输入的独立同分布,从而加速网络训练并减少梯度饱和。BN的优势包括允许使用更大的学习率、简化参数初始化,并促进领域自适应。" 122530602,7600175,Spring Boot 实现读写分离:AbstractRoutingDataSource 深入解析,"['Java', '数据库', '中间件', '微服务', 'Spring框架']
摘要由CSDN通过智能技术生成

ICML2015
截至目前51172引
出处
论文链接
代码连接(planing)

文章提出的问题

  • 减少神经网络隐藏层中的”内部协变量偏移”问题。
    • 在机器学习领域存在“协变量偏移”问题,问题的前提是我们划分数据集的时候,训练集和测试集往往假设是独立同分布(i.i.d)的,这种独立同分布更有利于我们在训练数据中挖掘到的先验可以更好的应用在测试集上。
    • 在神经网络的隐藏层中,随着前一层的参数的变化,下一层输入时的数据分布也会发生变化,这种变化使得网络训练十分复杂。
  • 神经网络在训练过慢是由于,在训练时需要初始化一个比较小的学习率超参数和需要在初始化参数上浪费经历。
  • 在激活函数再做非线性映射的时候往往会出现梯度饱和的问题,比如sigmod函数,在两边容易出现梯度的饱和问题。

解决方案

  • 在每层的输入之后及激活函数之前使用batchnormalization(批量归一化,BN),将每一层的输出进行批量归一化,使网络在每一层前可以保证输入数据的独立同分布,从而减少网络内部协变量偏移。

算法详述

  • 以下是BN将上一层的输入变换的流程。
    在这里插入图片描述
    图一

方案的优点

  • 针对出现的问题使用BN的网络有以下几个优点
    • 可以调大网络的初始学习率。
    • 可以不用设计一个很好的初始化参数。
    • 由于每一层都是同分布并且可以使网络在

参考
深度学习之batchnormalization
方差和偏差斯坦福实用机器学习,李沐讲
Domain Adaptation(领域自适应)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

cvyoutian

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值