transformer 为什么使用 layer normalization,而不是其他的归一化方法?

对于深度学习的很多技巧,当你实验做得足够多的时候你就会发现,这类问题的唯一正确答案是:

因为实验结果显示这样做效果更好!

当然,你非要想找一个像模像样的解释,其实也能尝试一下。对于Transformer为什么用LN而不是BN/IN,我估计《Attention is all you need的作者们当时肯定没有想那么多,而是发现当时NLP中主流就是用LN,所以就跟着用了。

那么,NLP为什么用LN居多呢?非要说原因,大致上是NLP的文本本质上可以看成一个时间序列,而时间序列是不定长的,长度不同的序列原则上属于不同的统计对象,所以很难得到稳定的统计量,而得不到稳定的统计量,BN就无法成立了(因为BN依靠滑动平均来获得一组预测用的统计量)。

但问题是,抛开具体的统计背景不说,我们硬是要在NLP模型中套上一层BN不行吗?肯定行,这又不犯法。那么是不是NLP+BN效果一定就不如NLP+LN?这还真不一定,以往我们做过一些实验,某些情况下NLP+BN是最好的,但总体来说还是NLP+LN更好,所以归根结底还是前面的唯一正确答案:

因为实验结果显示这样做效果更好ÿ

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值