问题描述
一共只有四类样本,分别是0、1、2、3四类,但是预测时预测的class_name是5,也就是说预测为第五类。
原因分析:
我在训练时对于训练数据集和验证数据集分别进行了调整大小,切割,标准化等一系列处理,所以导致训练出来的模型在预测时输入的图片也必须做相应的变换。
data_transform = {
"train": transforms.Compose([transforms.Resize(256),
transforms.RandomResizedCrop(256),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
"val": transforms.Compose([transforms.Resize(256),
transforms.CenterCrop(256),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])}
解决方案:
在对图片进行单张预测时,必须在图片进入网络前完成必要的图片变换。
data_transform = transforms.Compose([
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
image = Image.open('/media/totem_new/totem/Breast_Pathology/patch_mask_512/TCGA_cls/datasets/center_6_2_2/validation/LumB/' + filename)
image = image.convert("RGB")#图片转为RGB
image = letterbox_image(image, [224, 224], True)#图片大小变为224,224
image = np.array(image)#转为np数组
image = torch.tensor(image)#将数组转为tensor类型
image = image.float()#数组元素类型变为float
image /= 255#将0-255映射到0-1
image = image.permute(2, 1, 0)#将[224,224,3]调整为[3,224,224]
image = data_transform(image)#将图片和训练图片一样做normalize变化
image = torch.tensor(np.expand_dims(image, axis=0))#变成四维[1,3,224,224]
outputs = model(image.to(device))#放到gpu的模型中进行预测
_, predicted = torch.max(outputs, 1)#将预测结果转为类别结果
predicted = predicted.cpu()
class_name = predicted.item()