以最近遇到的网络结构和MNIST数据集为例:
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(1, 20, 5, 1)
self.conv2 = nn.Conv2d(20, 50, 5, 1)
self.fc1 = nn.Linear(4*4*50, 500)
self.fc2 = nn.Linear(500, 10)
def forward(self, x):
x = F.relu(self.conv1(x))
x = F.max_pool2d(x, 2, 2)
x = F.relu(self.conv2(x))
x = F.max_pool2d(x, 2, 2)
x = x.view(-1, 4*4*50)
x = F.relu(self.fc1(x))
x = self.fc2(x)
return F.log_softmax(x, dim=1)
令图像输入尺寸为W*W*1,首先解释一下每一层参数的意义以及对应的计算公式:
class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)
卷积层,in_channels 表示输入的通道数,用I表示,out_channels表示输出的通道数,用O表示,kernel_size表示卷积核的大小,用F表示,stride表示步长,用S表示,padding表示填充值,用P表示。图像经过卷积层后的大小为: [(W-F+2P)/S+1]*[(W-F+2P)/S+1]*O。
class torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)
池化层,kernel_size 表示卷积核的大小,用F表示,stride 表示步长,用S表示,padding 表示填充值,用P表示。经过池化层的大小为:[(W-F)/S+1]*[(W-F)/S+1]*O(池化一般不用padding)。需要注意的是这里的W不是最开始的W,是经过卷积层之后输出的大小。
class torch.nn.Linear(in_features, out_features, bias=True)
全连接层,in_features 表示输入的二维张量的大小,out_features 表示输出的二维张量的大小。
因此,对于MNIST数据集,图像大小为28*28*1,让我们从forward()函数开始一步步的计算输出大小:
- 经过卷积层conv1=nn.Conv2d(1, 20, 5, 1),其中I=1,O=20,F=5,S=1,P未指定,默认值为0。因此,(28-5+20)/1+1=24*,即此时输出大小为24*24*20.
- 经过池化层max_pool2d(x, 2, 2),其中F=2,S=2,因此*(24-2)/2+1=12*,即此时输出大小为12*12*20.
- 经过卷积层conv2 = nn.Conv2d(20, 50, 5, 1),其中I=20,O=50,F=5,S=1,P未指定,默认值为0。因此,(12-5+20)/1+1=8*,即此时输出大小为8*8*50.
- 经过池化层max_pool2d(x, 2, 2),其中F=2,S=2,因此*(8-2)/2+1=4*,即此时输出大小为4*4*50.
- x=x.view(-1, 4*4*50),转换为二维张量之后,才能作为全连接层的输入.
- 经过全连接层nn.Linear(4*4*50, 500),输出大小为1*500.
- 经过全连接层nn.Linear(500, 10),输出大小为1*10.
至此,28*28*1的图像经过卷积层池化层全连接层之后输出大小为1*10,对应MNIST十个标签。