【猫狗分类】Pytorch VGG16 实现猫狗分类5-预测新图片

背景
 

好了,现在开尝试预测新的图片,并且让vgg16模型判断是狗还是猫吧。

声明:整个数据和代码来自于b站,链接:使用pytorch框架手把手教你利用VGG16网络编写猫狗分类程序_哔哩哔哩_bilibili

预测

1、导包

from torchvision import transforms
from PIL import Image
import matplotlib.pyplot as plt
import torch
import torch.nn.functional as F
from net import vgg16

2、设置新照片的路径

test_pth=r'.\img.png'#设置可以检测的图像
test=Image.open(test_pth)

3、处理图片:图片变成tensor

transform=transforms.Compose([transforms.Resize((224,224)),transforms.ToTensor()])
image=transform(test)
  • transforms.Compose:这是一个类,可以将多个变换操作组合在一起。当你需要对数据执行一系列变换时,就会用到它。它接受一个变换函数列表作为参数。

4、设置设备

device=torch.device("cuda" if torch.cuda.is_available() else "cpu")#CPU与GPU的选择

5、加载网络(vgg16net)

net =vgg16()#输入网络

6、加载模型(权重模型)

model=torch.load(r".\DogandCat5.pth",map_location=device)#已训练完成的结果权重输入
net.load_state_dict(model)#模型导入

网络是网络,模型是模型!模型是训练出来的权重模型!网络是认为设定的!

7、模式选择(是训练模式还是推理模式)

net.eval()#设置为推测模式
  • 在PyTorch中,net.eval()是一个非常重要的方法调用,它用于改变模型的状态,使其从训练模式切换到推理(推测)模式。理解这一点很重要,因为模型在两种模式下的行为有所不同:
  • 训练模式 (net.train()): 在这种模式下,模型中的所有层都会处于活跃状态,包括像Dropout和Batch Normalization这样的层,它们会在每次前向传播时根据训练数据进行更新,引入随机性和依赖于批次的统计信息。这对于学习模型参数是非常必要的。

  • 推理模式 (net.eval()): 调用net.eval()后,模型会进入推理模式。这时,Dropout层将不起作用(即总是通过),而Batch Normalization层会使用在训练过程中计算得到的移动平均和方差,而不是 mini-batch 中的统计信息。这意味着模型的输出对于相同的输入将变得确定性,这对于测试和预测非常重要,因为你希望对同一输入多次运行模型时得到相同的结果。

  • 总结来说,当你准备好使用训练好的模型对新数据进行预测,而不是继续修改模型参数时,就应该调用net.eval()来确保模型以正确、一致的方式进行推理

8、传图片到网络,调整输入维度为四维张量

image=torch.reshape(image,(1,3,224,224))#四维图形,RGB三个通道

在PyTorch中,使用torch.reshape或者更常用的torch.Tensor.view方法可以改变张量的形状。对于图像数据,特别是当您准备将图像输入到深度学习模型时,将其调整为适合模型输入维度的四维张量是很常见的操作。

9、开始预测

with torch.no_grad():
    out=net(image)
out=F.softmax(out,dim=1) #softmax转为概率学问题
out=out.data.cpu().numpy()
print(out)
a=int(out.argmax(1))#输出最大值位置
  • with torch.no_grad():: 这一行代码用来指示PyTorch在接下来的代码块中不记录任何梯度信息。这对于推理(预测)阶段是非常重要的,因为它可以减少内存使用并加速计算过程,因为不需要为反向传播做准备。

  • out=net(image): 在上下文管理器torch.no_grad()内,将处理过的图像image输入到神经网络模型net中进行前向传播,得到模型的原始输出out。这个输出通常是未经处理的概率分布,对于分类任务,它通常代表每个类别的得分

  • out=F.softmax(out, dim=1): 使用F.softmax函数对模型输出out进行处理,该函数会将每一行的数据转换为概率分布,确保所有元素之和为1。这里dim=1表示沿着类别维度(通常对应于神经网络输出的最后一维)进行softmax操作,使得每个样本的预测结果可以解释为各类别的概率。

例举:假设你有一个简单的分类任务,模型需要区分猫、狗、鸟三种动物,即共有3个类别。你使用一个神经网络模型进行预测,对于一个批次内单个样本的输出可能看起来像这样(在未经过softmax处理前):

out_before_softmax = torch.tensor([2.0, 1.0, 0.5], dtype=torch.float32)

这里的输出张量out_before_softmax表示模型对于这个样本属于三个类别的原始打分或logits。注意,这些数值没有直接的概率意义,它们可以是任意实数。

应用Softmax

为了将这些原始分数转化为概率分布,你将使用F.softmax函数,并且指定dim=1,因为在这个一维张量的情况下,类别维度自然就是最后一维。执行操作后:

import torch.nn.functional as F
out_after_softmax = F.softmax(out_before_softmax, dim=1)
print(out_after_softmax)

输出解释

执行上述代码后,你可能会看到类似以下的输出(具体数值可能因四舍五入略有不同):

tensor([0.5561, 0.2476, 0.1963])

现在,out_after_softmax中的每个元素代表样本属于对应类别的概率,且所有概率之和为1(或接近1,由于浮点运算的精度限制)。例如,这里模型认为该样本有大约55.61%的概率是猫,24.76%的概率是狗,以及19.63%的概率是鸟。

总结

通过指定dim=1,你告诉softmax函数沿张量的最后一维进行操作,这在多分类任务中至关重要,因为它确保了每个样本的预测能够被合理地解释为各类别的概率分布。

  • out=out.data.cpu().numpy(): 将张量out从GPU(如果有的话)复制到CPU上,并转换为numpy数组,以便于进一步的处理和显示。这样做是因为后续的操作可能涉及到非PyTorch的库,如matplotlib用于绘图。

  • a=int(out.argmax(1)): 找出概率最大的类别索引,即预测的类别。argmax(1)沿着第1维度(类别维度)找到最大值的索引。argmax函数是用来找出数组或张量中最大值所在的位置(索引)。

10、显示图像

plt.figure()
list=['Cat','Dog']
plt.suptitle("Classes:{}:{:.1%}".format(list[a],out[0,a]))
plt.imshow(test)
plt.show()

  • list=['Cat','Dog']: 定义了一个类别标签列表,这里简化为猫和狗两类。
  • plt.suptitle(...): 设置图表的主标题,显示预测的类别名称及最高概率的百分比。
  • plt.imshow(test): 显示原始测试图像。
  • plt.show(): 显示整个图表,包括图像和标题。

给一张柴犬的照片,预测下:

                        

### 回答1: PyTorch VGG16是一种深度学习模型,可用于分类任务。该模型使用卷积神经网络(CNN)进行训练,具有16个卷积层和3个全连接层。通过在大量的图像数据集上进行训练,该模型可以准确地识别的图像。在实际应用中,可以使用PyTorch VGG16模型来对图像进行分类,以便进行自动化的图像识别和分类。 ### 回答2: Pytorch是一种广泛应用的深度学习框架,而VGG16是经典卷积神经网络之一,被广泛应用于图像分类问题中。在本次实验中,我们使用Pytorch框架来实现分类问题。 我们首先需要下载并导入所需的库,比如torch、torchvision、matplotlib等。接下来,我们需要下载数据集。对于分类问题,我们可以使用Kaggle提供的一个数据集,其中包含25000张图片,5000张为验证集。在训练过程中,我们需要对数据进行预处理和增强,比如随机旋转、裁剪、填充、缩放等,以增加数据的多样性,并防止模型过拟合。 接下来,我们可以构建VGG16卷积神经网络,并对其进行微调。由于该网络已经在大规模的ImageNet数据集上进行了预训练,我们只需要在最后一层加上一个全连接层,并使用softmax激活函数来进行预测。我们可以使用Adam优化器来进行训练,并定义损失函数为交叉熵损失函数。 在训练过程中,我们需要设置一些参数,比如batch size、number of epochs等。我们还需要对模型进行评估,以评估其在验证集上的准确率和损失函数值。 最后,我们可以使用训练好的模型来对图片进行分类。首先,我们需要将图像进行与训练数据一样的预处理。然后,我们可以使用模型进行预测,并输出预测结果。 总的来说,使用PytorchVGG16实现分类问题是一项有趣而挑战性的任务。通过使用预处理技巧和卷积神经网络,我们可以有效地处理这个问题,并得到准确的预测结果。 ### 回答3: 在分类问题上,PyTorch中的VGG16模型被普遍应用于图像分类问题,它是一种卷积神经网络模型。这个模型基于ImageNet数据集进行训练,可以对各种物体进行分类,包括。在分类项目中,我们可以利用VGG16模型进行特征提取,并利用这些特征进行分类。以下是一个基本的步骤: 1. 数据集准备 在开始训练模型之前,需要先准备好数据集。可以使用训练集和验证集,每个集合分别包含标签为“”或“”的图像。每张图像的大小和像素数应该相同。 2. 加载数据集 将数据集加载到PyTorch Tensor中,这个步骤可以通过使用torchvision.transforms来进行图像预处理,例如图像缩放、标准化等,这样可以帮助训练更快收敛。 3. 加载VGG16模型 加载预训练的VGG16模型,并将其想要的分类层替换为预训练的VGG16模型的特定层。 4. 特征提取 将图像输入到模型中,获取使用了预训练的VGG16模型的特征映射。 5. 分类 将获取的特征映射传递到分类层中,这个分类层可以是任何全连接层。 6. 训练和验证 使用交叉熵作为损失函数,利用Mini-batch stochastic gradient descent作为优化器,开始训练模型。 7. 发布、测试和评估模型 在测试集上运行模型,并计算其准确度,同时在分类错误的图像中观察,并尝试找出哪些特征基本上错了(即容易混淆)。 总的来说,通过利用PyTorch VGG16模型进行分类,我们可以轻松地创建出一个非常精确的模型来区分。这个模型可以被应用于实际的应用场景,例如应用在宠物社交媒体应用程序上,或其他需要对进行分类的场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值