批量归一化

卷积网络中的批量归一化

1、损失在最后,所以后面的层训练比较快。
2、数据在底部,底部的层训练比较慢,如果底部的层发生变化,顶部的层需要重新训练,结果是收敛变慢。
3、可学习的参数是均值 方差
4、作用在全连接层和卷积层上,激活函数之前
5、对于全连接层,作用在特征维,对于卷积层,作用在通道维。
6、最初论文是想用它来减小内部协变量转移
7、后续有论文指出它可能就是通过在每个小批量里加入噪音来控制模型复杂度(随机偏移 随机缩放)
8、因此没必要跟丢弃法混合使用
9、批量归一化固定小批量中的均值和方差,然后学习出适合的偏移和缩放
10、可以加快收敛速度,但一般不改变模型精度
11、在批量归一化当中加入噪声,来抵消缩放问题,事实上是有效的,目前尚未在理论上有明确的原因,优化中的各种噪声源通常会导致更快的训练和较少的过拟合。这种变化似乎是正则化的一种形式。在一些初步研究中,分别将批量规范化的性质与贝叶斯先验相关联,这些理论揭示了为什么批量规范化最适应50~100范围中的中等批量大小的难题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值