问题1:为什么变换要先把图片转成PIL类型图片再操作?
# Dataset
# training 时做 data augmentation
train_transform = transforms.Compose([
transforms.ToPILImage(),
transforms.RandomHorizontalFlip(), # 随机将图片水平翻转
transforms.RandomRotation(15), # 随机旋转图片
transforms.ToTensor(), # 将图片转换成 Tensor,并把数值normalize到[0, 1](data normalization)
])
答:参考https://blog.csdn.net/qq_40327008/article/details/104463058,似乎以前的transforms的图像变换操作只接收PIL类型图片?
问题2:为什么这里的label要求是longtensor类型?
class ImgDataset(Dataset):
def __init__(self, x, y=None, transform=None):
self.x = x
# label is required to be a LongTensor
self.y = y
if y is not None:
self.y = torch.LongTensor(y)
self.transform = transform
问题3:forward函数没看懂
def forward(self, x):
out = self.cnn(x)
out = out.view(out.size()[0], -1)
return self.fc(out)
问题4:“使用validation set寻找好的参数”这个过程在哪?
问题5:很离奇,把模型层数减半后显存反而超了?
报错信息:
初步的猜测:因为层数减少一半,所以池化次数减少了一半。而显存的占用主要Model本身和每一层的output,由于池化的次数减少,每一层的output变大,所以显存反而超了。在修改前两层的池化为nn.MaxPool2d(4, 4, 0)后显存占用降下来了,模型可以正常跑了。
参考链接:https://blog.csdn.net/SweetSeven_/article/details/96026706