【深度学习】深度学习中的Normalization

1 前言

  在debug深度学习模型时,经常会看到normalization操作。但是要一查这个操作到底有啥用处时,经常会看到同一个答案:使得神经网络每一层的分布一致,那么不禁就要问为什么一致就会使得模型的性能提高,本篇文章尝试去了解这个问题的始末。
  本篇博客主要是基于参考文献【1】的知识框架结合个人理解和其它文献整理而成,如有错误或者侵权请各位大佬在文末留言。

2 为什么需要 Normalization

参考文献

[1]详解深度学习中的Normalization,BN/LN/WN
[2]深度学习中的Normalization模型
[3]深度学习中的归一化(normalization)和正则化(regularization)
[4]Pytorch常用张量操作以及归一化算法实现

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值