批归一化处理、标准化处理和Adam

本文探讨了归一化和标准化在深度学习中的应用,重点介绍了批归一化(Batch Normalization, BatchNorm),它能加速模型训练,具有正则化效果。批归一化通常用于线性层和非线性激活函数之间,对于优化问题,如SVM、LR等,通常需要归一化处理。在测试阶段,批归一化的均值和方差处理策略包括使用训练后期的均值方差或整个训练集的均值方差。" 132126695,7337247,SpringCloud微服务架构实战指南,"['架构设计', '开发语言', '微服务架构', 'Spring Cloud Netflix', '服务治理']
摘要由CSDN通过智能技术生成
  • 归一化就是要把你需要处理的数据经过处理后限制在一定范围内,使得每一层神经网络的分布保持相同分布(0-1分布)。首先归一化是为了后面数据处理的方便,其次是保证模型运行时收敛加快。归一化处理把数据限制在[0,1]之间,而标准化处理则没有限制数据范围。

 批归一化(batch 归一化、batchNorm):不仅对输入x进行归一化,同时还可以对各个隐藏层的z进行归一化。对各个隐藏层进行归一化时,可以通过设置γ和β参数来构造不同的均值和方差,使得各层的隐藏单元并不总是服从0-1分布,而是隐藏单元(同一层)之间具有不同分布。γ、β也是需要学习的参数,同样可以使用动量、RMS、Adam来优化。https://blog.csdn.net/weixin_42535423/article/details/103882613这篇文章讲得很清楚。

归一化和标准化的x均值方差都是对mini-batch中的某一维度。 

  • 归一化和标准化: 

 本质上都是对数据的线性变换。

但是,很多讲解BN的操作文章做的都是如下流程(原作者论文中提出的):

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值