工作报告
https://blog.csdn.net/qq_42278791/article/details/94398159
码住链接,一个19年目标检测论文汇总的网址
论文阅读:
1.《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》
主要是恶补→。→,之前学的的太少,BN一直有一点了解,花一点时间具体学习一下。
BN主要是用来加速网络收敛及防止梯度消失等神经网络常见的问题。
简单来说,变换重构,引入了可学习参数γ、β,让网络可以学习恢复出原始网络所要学习的特征分布,从而减少或避免归一化处理带来的影响:
其中参数γ、β是
前向传导过程公式就是:
公式不多说,直接看源码:
m = K.mean(X, axis=-1, keepdims=True)#计算均值
std = K.std(X, axis=-1, keepdims=True)#计算标准差
X_normed = (X - m) / (std + self.epsilon)#归一化
out = self.gamma * X_normed + self.beta#重构变换y=γ*x+β
源码的实现就4行代码,比较简单。
参考博客:https://blog.csdn.net/shuzfan/article/details/50723877