归一化:Layer Normalization、Batch Normalization

归一化技术在深度学习中用于加速模型收敛,包括Batch Normalization(BN)和Layer Normalization(LN)。BN通过在批次维度上标准化,适合静态网络,但对小批量和RNN效果不佳。相反,LN在同一层内对不同神经元进行归一化,适用于RNN和小批量,提供模型稳定性和正则化效果。
摘要由CSDN通过智能技术生成

Normalization 有很多种,但是它们都有一个共同的目的,那就是把输入转化成均值为 0 方差为 1 的数据。我们在把数据送入激活函数之前进行 normalization(归一化),因为我们不希望输入数据落在激活函数的饱和区。同时,使得训练数据在训练过程中尽可能的保持和测试数据拥有相同的分布。

  • 一方面,这样可以减少数据的偏差,避免在训练过程中出现梯度爆炸或是梯度消失的问题;
  • 另一方面,这也是确保模型测试性能的重要假设之一。

二者提出的目的都是为了加快模型收敛,减少训练时间。
在这里插入图片描述

  • LN:Layer Normalization,LN是“横”着来的,对一个样本,不同的神经元neuron间做归一化。
  • BN:Batch Normalization,BN是“竖”着来的,各个维度做归一化,所以与batch size有关系。

一、Batch Normalization(BN)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值