自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Kevin.wang

英国Computer Science本科在读,用最通俗的语言讲述计算机科学,见证计算机小白的进化

  • 博客(1)
  • 收藏
  • 关注

原创 Batch Norm和Dropout问题大总结

文章目录1. 为什么训练时要保证每层的方差一致?2. 什么是Covariate Shift现象?3. Batch Norm中为什么归一化后还要引入γ\gammaγ和β\betaβ?4. Batch Norm训练和测试的区别5. 为什么Dropout后需要Rescale?6. dropout与Batch Norm联合使用会产生哪些问题?7. 如何减轻该状况?1. 为什么训练时要保证每层的方差一致?每层的方差保持一致可以减缓梯度消失或爆炸。简单的说,神经网络的误差反向传播,忽略激活函数的偏导数时,相当于自后

2021-05-21 16:56:55 1267

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除