一直对这个的认识很混乱,记录下来自己学习使用。
卷积核和过滤器的区别:
卷积核:长和宽,二维 过滤器:长宽,深度,三维
当处理单通道的时候,卷积核等同于过滤器。当处理多通道时,例如RGB图像,三个卷积处理不同通道的图像,最后将处理的数据相加,这三个卷积合在一起成为过滤器。
in_channels
取决于图片的类型,out_channels取决于过滤器的数量。
这个图非常清楚 假设输入通道32,输出通道64,卷积核3*3,权重总数=3*3*32*64
Batchnorm2d:
在卷积神经网络的卷积层之后总会添加BatchNorm2d进行数据的归一化处理,这使得数据在进行Relu之前不会因为数据过大而导致网络性能的不稳定,BatchNorm2d()函数数学原理如下:
batch_size:
在神经网络模型训练时,比如有1000个样本,把这些样本分为10批,就是10个batch。每个批(batch)的大小为100,就是batch size=100。
每次模型训练,更新权重时,就拿一个batch的样本来更新权重。