在使用pytorch的nn.module 的时候从使用说明上可以知道其标准输入为 [B, C, H, W], 其具体含义是:
B - batchsize,例如你在使用dataloder的时候设置的batchsize是64那么此项则为64
C - channel,也就是输入的矩阵的通道数,若你输入的是RGB图片,那么此项为3
H - high,也就是你输入矩阵的高。
W - width,也就是你输入矩阵的宽
针对四个维度来达到你要实现的目标
由于数据在经过net后输出并不一定满足满足期望输出的大小,于是这个时候往往需要进行view或者reshape操作。以此达到期望输出。
例如我希望VGG的输出为自定义的H * W而不是直接铺开。那么我需要使用 x.reshape() ,其中第一个参数应设置为x.size(0),这是为了确保第一个保证batchsize,第二个可以设置为-1(自由铺开,防止报错),第三个第四个参数设置为自定义的H * W。具体代码示例:
x = self.maxpool(F.leaky_relu(self.conv1_1(x)))
x = self.maxpool(F.leaky_relu(self.conv2_1(x)))
x = self.maxpool(F.leaky_relu(self.conv3_2(F.leaky_relu(self.conv3_1(x)))))
x = self.maxpool(F.leaky_relu(self.conv4_2(F.leaky_relu(self.conv4_1(x)))))
x = self.maxpool(F.leaky_relu(self.conv5_2(F.leaky_relu(self.conv5_1(x)))))
x = self.dropout(x)
x = x.view(x.size(0), 512 * 4 * 4)
x = F.leaky_relu(self.fc1(x))
x = F.leaky_relu(self.fc2(x))
x = x.reshape(x.size(0),-1, int(self.image_size[0]/2),int(self.image_size[1]/2))