计算机视觉与深度学习-全连接神经网络-训练过程-批归一化- [北邮鲁鹏]



思想

直接对神经元的输出进行批归一化

在这里插入图片描述
批归一化:对输出值进行归一化,将归一化结果平移缩放作为输出。

批归一化操作

小批量梯度下降算法回顾:每次迭代时会读入一批数据,比如32个样本;经过当前神经元后会有32个输出值y1,…y32
批归一化操作:对这32个输出进行减均值初方差操作;可保证当前神经元的输出值的分布符合0均值1方差。
如果每一层的每个神经元进行批归一化,就能解决前向传递过程中的信号消失问题。

批归一化与梯度消失

实际操作中,经常将批归一化放在全连接层之后,非线性激活前。
在这里插入图片描述
FC:全连接层 就是wx+b

经过BN处理

在这里插入图片描述
批归一化解决两个问题:

  1. 保证前向传播中信息流通畅,不至于让数据变为0导致的数据不能到达输出层。因为每次归一化后数据都会将很小的数据,变得不那么小。
  2. 保证反向传播中信息流通畅,可以有效的防止梯度消失现象发生。因为每次归一化后梯度都会变得很有效

算法实现

在这里插入图片描述
参数解释:
在这里插入图片描述

问题:输出的0均值1方差的正态分布是最有利于网络分类的分布吗 ?

根据对分类的贡献自行决定数据分布的均值与方差

平移缩放的作用

可以使网络自行选择数据分布的均值和方差,γ决定方差,β决定期望。γ和β是学习参数,不是超参数,需要神经网络学习得出。

问题:单张样本测试时,均值和方差怎么设置?

来自训练中。累加训练中每个批次的均值和方差,最后进行平均,用平均后的结果作为预测时的均值和方差。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值