Pytorch 训练一个分类器

训练一个分类器

训练一个图像分类器
依次按照下列顺序进行:

使用torchvision加载和归一化CIFAR10训练集和测试集

定义一个卷积神经网络
定义损失函数
在训练集上训练网络
在测试集上测试网络

1. 读取和归一化 CIFAR10

使用torchvision可以非常容易地加载CIFAR10。

import torch
import torchvision
import torchvision.transforms as transforms

torchvision的输出是[0,1]的PILImage图像,我们把它转换为归一化范围为[-1, 1]的张量。

#归一化操作,它的含义是将图像值都转换到[-1,1]之间
transform = transforms.Compose(#Composes several transforms together. This transform does not support torchscript.
    [transforms.ToTensor(),#先应用ToTensor()使[0-255]变换为[0-1]
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])#Normalize自定义标准化


#训练集,将相对目录./data下的cifar-10-batches-py文件夹中的全部数据(50000张图片作为训练数据)加载到内存中,若download为True时,会自动从网上下载数据并解压

trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)#transform,表示是否需要对数据进行预处理

print(len(trainset))#50000张

#将训练集的50000张图片划分成12500份,每份4张图,用于mini-batch输入。mini-batch(一次输入多张图片)
#shffule=True在表示不同批次的数据遍历时,打乱顺序(这个需要在训练神经网络时再来讲)。num_workers=2表示使用两个子进程来加载数据
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)

#测试集的过程,和训练集一致
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                       download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat',
           'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
import matplotlib.pyplot as plt
import numpy as np

# 展示图像的函数


def imshow(img):
    img = img / 2 + 0.5     # unnormalize
    npimg = img.numpy()
    plt.imshow(np.transpose(npimg, (1, 2, 0)))


# 获取随机数据
dataiter = iter(trainloader)
print(len(trainloader))
print(len(dataiter))
images, labels = dataiter.next()
# print(images)
# print(labels)
# 展示图像
imshow(torchvision.utils.make_grid(images))
# 显示图像标签
print('    '.join('%5s' % classes[labels[j]] for j in range(4)))

在这里插入图片描述

2. 定义一个卷积神经网络

import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        #3 input image channel, 6 output channels, 5x5 square convolution
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)#https://blog.csdn.net/m0_51499154/article/details/120365329
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()
print(net)

3. 定义损失函数和优化器

# 我们使用交叉熵作为损失函数,使用带动量的随机梯度下降。


import torch.optim as optim#torch.optim是一个实现了各种优化算法的库

criterion = nn.CrossEntropyLoss()#交叉熵作为损失函数
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
# params (iterable) – 待优化参数的iterable或者是定义了参数组的dict
# lr (float) – 学习率
# momentum (float, 可选) – 动量因子(默认:0)

4. 训练网路

有趣的时刻开始了。 我们只需在数据迭代器上循环,将数据输入给网络,并优化。

for epoch in range(2):  # 多批次循环

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):#
        # 获取输入
        
        inputs, labels = data

        # 梯度置0
        optimizer.zero_grad()

        # 正向传播,反向传播,优化
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # 打印状态信息
        running_loss += loss.item()
        if i % 2000 == 1999:    # 每2000批次打印一次
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 2000))
            running_loss = 0.0

print('Finished Training')

在这里插入图片描述

5. 在测试集上测试网络

我们在整个训练集上进行了2次训练,但是我们需要检查网络是否从数据集中学习到有用的东西。 通过预测神经网络输出的类别标签与实际情况标签进行对比来进行检测。 如果预测正确,我们把该样本添加到正确预测列表。 第一步,显示测试集中的图片并熟悉图片内容。

print(len(testloader))
dataiter = iter(testloader)
print(len(dataiter))
images, labels = dataiter.next()

# 显示图片
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))

在这里插入图片描述

看看神经网络的预测吧。

outputs = net(images)

输出是10个标签的能量。 一个类别的能量越大,神经网络越认为它是这个类别。所以让我们得到最高能量的标签。

_, predicted = torch.max(outputs, 1)

print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
                              for j in range(4)))
Predicted:    cat  ship  ship  ship

接下来让看看网络在整个测试集上的结果如何。

correct = 0
total = 0
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
    100 * correct / total))
Accuracy of the network on the 10000 test images: 54 %

在识别哪一个类的时候好,哪一个不好呢?

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
    for data in testloader:
        images, labels = data
        outputs = net(images)
        _, predicted = torch.max(outputs, 1)#_:表示具体的价值(因为不关心,所以才用_表示) predicted:表示预测的编号
        c = (predicted == labels).squeeze()#从数组的形状中删除单维度条目,即把shape中为1的维度去掉
        for i in range(4):
            label = labels[i]
            class_correct[label] += c[i].item()
            class_total[label] += 1


for i in range(10):
    print('Accuracy of %5s : %2d %%' % (
        classes[i], 100 * class_correct[i] / class_total[i]))

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以帮你写一个二元分类器。可以用PyTorch框架实现,首先需要定义好模型的结构和训练流程,然后再利用已经标记好的数据进行训练训练好的模型可以进行测试和预测,用来分类新的数据。 以下是一个简单的二元分类器的示例代码(注:以下代码仅供参考,不保证一定能正常运行): ```python import torch import torch.nn as nn import torch.optim as optim # 定义模型的结构 class BinaryClassifier(nn.Module): def __init__(self, input_size, hidden_size, output_size): super(BinaryClassifier, self).__init__() self.hidden = nn.Linear(input_size, hidden_size) self.out = nn.Linear(hidden_size, output_size) self.act = nn.Sigmoid() def forward(self, x): hidden = self.act(self.hidden(x)) output = self.act(self.out(hidden)) return output # 定义训练流程 def train(model, optimizer, criterion, train_data, train_labels, num_epochs): for epoch in range(num_epochs): total_loss = 0 for data, labels in zip(train_data, train_labels): data = torch.tensor(data).float() labels = torch.tensor(labels).float() optimizer.zero_grad() output = model(data) loss = criterion(output, labels) loss.backward() optimizer.step() total_loss += loss.item() print(f"Epoch {epoch + 1}: Loss = {total_loss:.3f}") # 定义输入和标签数据 train_data = [[0, 0], [0, 1], [1, 0], [1, 1]] train_labels = [[0], [1], [1], [0]] # 定义模型和优化器 model = BinaryClassifier(input_size=2, hidden_size=4, output_size=1) criterion = nn.MSELoss() optimizer = optim.Adam(model.parameters(), lr=0.01) # 训练模型 train(model, optimizer, criterion, train_data, train_labels, num_epochs=1000) # 预测新数据的分类 new_data = [[0.5, 0.5], [0.2, 0.8], [0.9, 0.1]] for data in new_data: x = torch.tensor(data).float() output = model(x) prediction = 0 if output.item() < 0.5 else 1 print(f"Input = {data}, Output = {output.item():.3f}, Prediction = {prediction}") ``` 希望这个示例可以对你有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值