今天查资料看到说batchnorm2d的作用如下 nn.BatchNorm2d(out_channel), #BatchNorm2d最常用于卷积网络中(防止梯度消失或爆炸),设置的参数就是卷积的输出通道数 转一篇文章可以看看 Pytorch中的Batch Normalization操作