本文以下面这个图为例,来实战演示神经网络中的卷积层、池化层、线性层的具体用法,使得由原来输入3@32x32(3渠道,宽32,高32)的数据,最终转化为了10的线性数据。并且采用两种方式去写,一种没有用Sequential,一种用了Sequential。发现,当神经网络需要很多层的变换的时候,往往使用Sequential会会更加的方便。
1.卷积层
由3@32X32(3渠道,宽32,高32)的数据转换成32@32X32(32渠道,宽32,高32)的代码实现是怎么样的呢?
代码如下:
class net_work(nn.Module):
def __init__(self):
super(net_work, self).__init__()
self.conv1 = Conv2d(3, 32, 5, padding=2)
此段代码的意思是,卷积变换,输入3渠道,输出32渠道,卷积核大小是5X5的,padding是2,好的,那问题来了,为什么padding的大小是2呢,当然是我们通过如下的数学公式计算出来的,我们打开pytorch的官网,找到长度变换公式(如下),由此