cs231_n6.2_批量归一化

想要保持单位高斯激活,那么就需要做批量归一化,即在神经网络中额外加入一层,以使得中间的激活值均值为0方差为1。

BN,LN,IN,GN从学术化上解释差异:
BatchNorm:batch方向做归一化,算NHW的均值,对小batchsize效果不好;BN主要缺点是对batchsize的大小比较敏感,由于每次计算均值和方差是在一个batch上,所以如果batchsize太小,则计算的均值、方差不足以代表整个数据分布
LayerNorm:channel方向做归一化,算CHW的均值,主要对RNN作用明显;
InstanceNorm:一个channel内做归一化,算H*W的均值,用在风格化迁移;因为在图像风格化中,生成结果主要依赖于某个图像实例,所以对整个batch归一化不适合图像风格化中,因而对HW做归一化。可以加速模型收敛,并且保持每个图像实例之间的独立。
GroupNorm:将channel方向分group,然后每个group内做归一化,算(C//G)HW的均值;这样与batchsize无关,不受其约束。
SwitchableNorm是将BN、LN、IN结合,赋予权重,让网络自己去学习归一化层应该使用什么方法。

 

  实现公式:   

参考:https://liumin.blog.csdn.net/article/details/85075706

 

详细来看一下,如果我们想要正确的激活单位高斯函数,我们可以取目前处理的批数据的均值,利用均值和方差来进行归一化,如果我们要在训练的每一层都保持良好的高斯分布,就需要进行批量归一化。而且需要它能够微分,这样才能在梯度反向传播的时候计算局部梯度。

 

这一步通常在全连接层(或卷积层)与激活函数之间进行。批量归一化处理的是输入数据而不是权重。在完成归一化操作后,需要进行额外的缩放操作,γ和β都是学习到的参数,用来恢复恒等函数。
 

批量归一化改进了整个网络的梯度流,具有更好的鲁棒性,能够在更广泛的学习率和不同初始值下工作。所以一旦使用批量归一化训练会变得更容易。
也可以把它看作正则化的一种。

监视训练

监视训练过程并在训练过程中调整超参数。
第一步,数据初始化,做零均值处理
第二步,选择网络结构,包括隐藏层数量,每层神经元数量等
第三步,完整性检查

 

首先关闭正则项,loss的值
 

然后加入正则项,观察到loss上升表示正确
第四步,开始训练,先用一小部分数据训练,确保训练过程中loss在降低,准确率在上升
第五步,拿出全部数据训练,加上一个小正则化项,然后从小值开始尝试学习率,会存在一个loss变化不大,但是准确率上升的过程,这是因为参数值依然分散,但是性能略有提升。

超参数最优化

对任何超参数,执行交叉验证:在训练集上训练,然后在验证集里验证效果。

 

如图是在一定范围内搜索最佳学习率。
通常来说学习率是最重要的参数,应该先确定它,之后像regularization正则化,学习判据和模型大小等并不是那么敏感,所以应该来回迭代,先找出最佳学习率然后返回寻找其他超参数。

转载自:https://blog.csdn.net/wildridder/article/details/88534844

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值