1/31工作报告

工作报告

https://blog.csdn.net/qq_42278791/article/details/94398159
码住链接,一个19年目标检测论文汇总的网址

论文阅读:

1.《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

主要是恶补→。→,之前学的的太少,BN一直有一点了解,花一点时间具体学习一下。
BN主要是用来加速网络收敛及防止梯度消失等神经网络常见的问题。
简单来说,变换重构,引入了可学习参数γ、β,让网络可以学习恢复出原始网络所要学习的特征分布,从而减少或避免归一化处理带来的影响:
在这里插入图片描述
其中参数γ、β是
在这里插入图片描述
在这里插入图片描述
前向传导过程公式就是:
m指的是mini-batch size
公式不多说,直接看源码:

        m = K.mean(X, axis=-1, keepdims=True)#计算均值
        std = K.std(X, axis=-1, keepdims=True)#计算标准差
        X_normed = (X - m) / (std + self.epsilon)#归一化
        out = self.gamma * X_normed + self.beta#重构变换y=γ*x+β

源码的实现就4行代码,比较简单。
参考博客:https://blog.csdn.net/shuzfan/article/details/50723877

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值