CNN Batch Normalization:假设某一层卷积层的输入为(m,c,w,h),其中m为batch size数,c为通道数,即特征图个数,w,h分别为特征图的宽度和高度,实现BN时,把每个特征图当做一个神经元处理,因此对于每一个特征图都需要学习对应的参数:γ和β,对于每一个特征图计算所有m×w×h数值的平均值和方差。
Batch Normalization细节
最新推荐文章于 2024-05-10 09:44:27 发布
CNN Batch Normalization:假设某一层卷积层的输入为(m,c,w,h),其中m为batch size数,c为通道数,即特征图个数,w,h分别为特征图的宽度和高度,实现BN时,把每个特征图当做一个神经元处理,因此对于每一个特征图都需要学习对应的参数:γ和β,对于每一个特征图计算所有m×w×h数值的平均值和方差。