关于tiny-imagenet200训练各种网络模型图像分类

文章介绍了如何利用Dataset制作数据集,Dataloader进行读取,并使用Resnet34模型进行图像分类训练。代码示例包括数据预处理和模型训练,适用于tiny-imagenet200数据集。训练目标是探究图像风格迁移效果与模型精度关系。
摘要由CSDN通过智能技术生成

使用Dataset制作好数据集之后,可以用Dataloader进行读取,然后用resnet34进行训练。

关于data_read数据预处理代码编写,我放在了付费内容里!

具体代码及注释如下

1 模块导入

其中data_read是利用Dataset制作数据集时写的文件

# 从data_read文件中读取函数
# data_read是创建的数据集制作函数
from data_read import ImageFloder, train_transform, test_transform
import numpy as np
import torch
# torch.nn用于网络的自定义
import torch.nn as nn
# torch.optim用于训练过程中参数的更新
import torch.optim as optim
# DataLoader用于储存数据,方便使用
from torch.utils.data import DataLoader
import torchvision
# 如果不是自己建立网络,可以从torchvision.models读取到已有的网络
# 然后对网络做适当的修改
from torchvision.models import vgg16, resnet34
import os
from os.path import join

最后链接文章包含代码可以训练图像分类(基于tiny-imagenet200数据集,包含数据预处理和分类模型训练两部分代码)
亲测cpu环境下2天时间可以达到40%左右的图像分类精度
(我把作者的网络模型改为pytorch中的vgg16之后,作者的模型我没有尝试长时间训练,代码能跑我就改了,大家可以改成任意模型)

我训练这个网络是为了验证图像风格迁移效果与模型图像分类精度的关系:精度越高,图像风格迁移效果越好。这之后可能会出单独的风格迁移文章再归纳一下我的项目。

全文imagenet数据集训练链接如下:

小P学长的博客(建议保存链接) (studentp.cloud)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
要实现对tiny-imagenet-200的训练分类预测,我们可以使用Python中的深度学习框架。其中最流行的是TensorFlow和PyTorch,但是也有其他框架可以使用。在下面的示例中,我们将使用PyTorch框架。 首先,我们需要下载和准备数据集。你可以从https://tiny-imagenet.herokuapp.com/下载tiny-imagenet-200数据集。下载完成后,你需要解压缩数据集文件,然后将数据集文件夹中的train和val文件夹移动到一个新的文件夹中,例如,我们可以将它们移动到一个名为"data"的文件夹中。 接下来,我们将使用PyTorch框架定义模型训练过程。我们将首先导入必要的库: ``` import torch import torch.nn as nn import torch.optim as optim from torch.utils.data import DataLoader from torchvision import datasets, transforms ``` 接下来,我们将定义模型。在本例中,我们将定义一个简单的卷积神经网络: ``` class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 32, 3, padding=1) self.conv2 = nn.Conv2d(32, 64, 3, padding=1) self.conv3 = nn.Conv2d(64, 128, 3, padding=1) self.pool = nn.MaxPool2d(2, 2) self.fc1 = nn.Linear(128 * 8 * 8, 512) self.fc2 = nn.Linear(512, 200) def forward(self, x): x = self.pool(torch.relu(self.conv1(x))) x = self.pool(torch.relu(self.conv2(x))) x = self.pool(torch.relu(self.conv3(x))) x = x.view(-1, 128 * 8 * 8) x = torch.relu(self.fc1(x)) x = self.fc2(x) return x ``` 我们定义了一个由三个卷积层和两个全连接层组成的简单卷积神经网络。输入图像是3x64x64,输出是200个类别之一。 接下来,我们将定义损失函数和优化器: ``` criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9) ``` 我们使用交叉熵损失函数和随机梯度下降优化器。 接下来,我们将定义数据转换和数据加载器: ``` transform_train = transforms.Compose([ transforms.RandomResizedCrop(64), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)) ]) transform_test = transforms.Compose([ transforms.Resize(64), transforms.CenterCrop(64), transforms.ToTensor(), transforms.Normalize((0.485, 0.456, 0.406), (0.229, 0.224, 0.225)) ]) trainset = datasets.ImageFolder('data/train', transform=transform_train) trainloader = DataLoader(trainset, batch_size=64, shuffle=True, num_workers=2) testset = datasets.ImageFolder('data/val', transform=transform_test) testloader = DataLoader(testset, batch_size=64, shuffle=False, num_workers=2) ``` 我们使用transforms模块对训练和测试数据进行预处理,并使用ImageFolder类加载数据。 现在我们可以开始训练模型了: ``` for epoch in range(10): running_loss = 0.0 for i, data in enumerate(trainloader, 0): inputs, labels = data optimizer.zero_grad() outputs = net(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() running_loss += loss.item() if i % 100 == 99: print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 100)) running_loss = 0.0 ``` 我们训练模型10个时期,并在每个时期结束时输出损失。 最后,我们可以使用训练好的模型进行分类预测: ``` correct = 0 total = 0 with torch.no_grad(): for data in testloader: images, labels = data outputs = net(images) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print('Accuracy of the network on the test images: %d %%' % ( 100 * correct / total)) ``` 我们评估模型在测试集上的准确性,并输出结果。 这就是如何使用Python调用PyTorch框架完成对tiny-imagenet-200的训练分类预测的示例。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小P学长

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值