基于Python的图像分类-Finetune训练模型

迁移训练-使用finetune

零、上传文件并在终端使用解压码解压

下载所需文件并上传

链接:https://pan.baidu.com/s/19DdkqOh-lrtLM1bd-dpdAA
提取码:2333

使用终端解压

粘贴

一、简介

本任务为,将此前我们找到的准确率最高的预训练网络模型,改造为可以从上万张图片中,帮我们筛选为五分类的中草药模型。

——注意:前面的一到八,八个步骤使用自己的中草药数据集,介绍如何使用PaddleHub进行Fine-tune迁移训练图像分类。

我们的任务:

一.需要同学们稍微完善一到八八个步骤的代码(两处),使其可以根据选择的预训练模型进行迁移训练。

二.需要自己寻找50张图片,使用预训练模型进行分类识别。 最后,要么使用代码将图片放入不同文件夹,要么使用txt文本分别记录不同分类的中草药文件名,并记录正确率

请务必使用GPU环境, 因为下方的代码基于GPU环境. 请务必使用GPU环境, 因为下方的代码基于GPU环境.

当前平台正在进行普遍赠送, 只要点击此处表单进行填写, 之后再度运行即可获赠.

二、准备工作

首先导入必要的python包

!pip install paddlehub==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
import paddle

 

# -*- coding: utf8 -*-
import paddlehub as hub

 

接下来我们要在PaddleHub中选择合适的预训练模型来Finetune。

请在此处选择前期任务准确率最高的模型

import paddle
paddle.enable_static()
# 选择模型
# 此处代码为加载Hub提供的图像分类的预训练模型
module = hub.Module(name="resnet_v2_50_imagenet") 

 

PaddleHub 还有着许多的图像分类预训练模型,更多信息参见PaddleHub官方网站

三、数据准备

此处的数据准备使用的是paddlehub提供的猫狗分类数据集,如果想要使用自定义的数据进行体验,需要自定义数据,请查看适配自定义数据

#上传制作成功的中草药数据集后,使用这段代码去做解压缩,注意路径
!unzip -o /home/aistudio/dataset.zip
# 使用自定义数据集
from paddlehub.dataset.base_cv_dataset import BaseCVDataset
   
class DemoDataset(BaseCVDataset):	
   def __init__(self):	
       # 数据集存放位置
       self.dataset_dir = "dataset"
       super(DemoDataset, self).__init__(
           base_path=self.dataset_dir,
           train_list_file="train_list.txt",
           validate_list_file="validate_list.txt",
           test_list_file="test_list.txt",
           #predict_file="predict_list.txt",
           label_list_file="label_list.txt",
           # label_list=["数据集所有类别"]
           )
dataset = DemoDataset()

如果想加载自定义数据集完成迁移学习,详细参见自定义数据集

四、生成Reader

接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。

当我们生成一个图像分类的reader时,需要指定输入图片的大小

data_reader = hub.reader.ImageClassificationReader(
    image_width=module.get_expected_image_width(), #预期图片经过reader处理后的图像宽度
    image_height=module.get_expected_image_height(),#预期图片经过reader处理后的图像高度
    images_mean=module.get_pretrained_images_mean(),#进行图片标准化处理时所减均值。默认为None
    images_std=module.get_pretrained_images_std(), #进行图片标准化处理时所除标准差。默认为None
    dataset=dataset)

五、选择运行时配置

在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:

  • use_cuda:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True;

  • epoch:要求Finetune的任务只遍历1次训练集;

  • batch_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步;

  • log_interval:每隔10 step打印一次训练日志;

  • eval_interval:每隔50 step在验证集上进行一次性能评估;

  • checkpoint_dir:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中;

  • strategy:使用DefaultFinetuneStrategy策略进行finetune;

更多运行配置,请查看RunConfig

同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategyULMFiTStrategyDefaultFinetuneStrategy等,详细信息参见策略

config = hub.RunConfig(
    use_cuda=True,                                            #是否使用GPU训练,默认为False;
    num_epoch=4,                                              #Fine-tune的轮数;使用4轮,直到训练准确率达到90%多
    checkpoint_dir="cv_finetune_turtorial_demo",              #模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
    batch_size=32,                                            #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
    eval_interval=50,                                         #模型评估的间隔,默认每100个step评估一次验证集;
    strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;

六、组建Finetune Task

有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。

由于猫狗分类是一个二分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:

  1. 获取module的上下文环境,包括输入和输出的变量,以及Paddle Program;
  2. 从输出变量中找到特征图提取层feature_map;
  3. 在feature_map后面接入一个全连接层,生成Task;
#获取module的上下文信息包括输入、输出变量以及paddle program
input_dict, output_dict, program = module.context(trainable=True) 

#待传入图片格式
img = input_dict["image"]  

#从预训练模型的输出变量中找到最后一层特征图,提取最后一层的feature_map
feature_map = output_dict["feature_map"]   

#待传入的变量名字列表
feed_list = [img.name]

task = hub.ImageClassifierTask(
    data_reader=data_reader,        #提供数据的Reader
    feed_list=feed_list,            #待feed变量的名字列表
    feature=feature_map,            #输入的特征矩阵
    num_classes=dataset.num_labels, #分类任务的类别数量,此处来自于数据集的num_labels
    config=config)                  #运行配置

如果想改变迁移任务组网,详细参见自定义迁移任务

七、开始Finetune

我们选择finetune_and_eval接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。

run_states = task.finetune_and_eval() #通过众多finetune API中的finetune_and_eval接口,可以一边训练网络,一边打印结果

八、使用模型进行预测

当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片

注意:填入测试图片路径后方可开始测试

预测代码如下:

import numpy as np

import os,sys
path="pic"
dirs=os.listdir(path)
num=0
for x in dirs:
    m='pic/'+x
    dirs[num]=m
    num+=1

data =dirs       #此处传入需要识别的照片地址
label_map = dataset.label_dict()
index = 0

# get classification result
run_states = task.predict(data=data) #进行预测
results = [run_state.run_results for run_state in run_states] #得到用新模型预测test照片的结果

for batch_result in results:
    # get predict index
    batch_result = np.argmax(batch_result, axis=2)[0]
    for result in batch_result:
        index += 1
        result = label_map[result]
        print("input %i is %s, and the predict result is %s" %
              (index, data[index - 1], result))

九、自己寻找50张中草药图片(还是我们5种分类的图片,但是不能使用我们训练图片),然后对50张中草药图片进行分类,并记录准确率。

!pip install paddlehub==1.7.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
import paddle

# -*- coding: utf8 -*-
import paddlehub as hub

import paddle
paddle.enable_static()
# 选择模型
# 此处代码为加载Hub提供的图像分类的预训练模型
module = hub.Module(name="resnet_v2_50_imagenet")

# 使用自定义数据集
from paddlehub.dataset.base_cv_dataset import BaseCVDataset
   
class DemoDataset(BaseCVDataset):	
   def __init__(self):	
       # 数据集存放位置
       self.dataset_dir = "dataset"
       super(DemoDataset, self).__init__(
           base_path=self.dataset_dir,
           train_list_file="train_list.txt",
           validate_list_file="validate_list.txt",
           test_list_file="test_list.txt",
           #predict_file="predict_list.txt",
           label_list_file="label_list.txt",
           # label_list=["数据集所有类别"]
           )
dataset = DemoDataset()

data_reader = hub.reader.ImageClassificationReader(
    image_width=module.get_expected_image_width(), #预期图片经过reader处理后的图像宽度
    image_height=module.get_expected_image_height(),#预期图片经过reader处理后的图像高度
    images_mean=module.get_pretrained_images_mean(),#进行图片标准化处理时所减均值。默认为None
    images_std=module.get_pretrained_images_std(), #进行图片标准化处理时所除标准差。默认为None
    dataset=dataset)

config = hub.RunConfig(
    use_cuda=True,                                            #是否使用GPU训练,默认为False;
    num_epoch=4,                                              #Fine-tune的轮数;使用4轮,直到训练准确率达到90%多
    checkpoint_dir="cv_finetune_turtorial_demo",              #模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
    batch_size=32,                                            #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
    eval_interval=50,                                         #模型评估的间隔,默认每100个step评估一次验证集;
    strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;

#获取module的上下文信息包括输入、输出变量以及paddle program
input_dict, output_dict, program = module.context(trainable=True) 

#待传入图片格式
img = input_dict["image"]  

#从预训练模型的输出变量中找到最后一层特征图,提取最后一层的feature_map
feature_map = output_dict["feature_map"]   

#待传入的变量名字列表
feed_list = [img.name]

task = hub.ImageClassifierTask(
    data_reader=data_reader,        #提供数据的Reader
    feed_list=feed_list,            #待feed变量的名字列表
    feature=feature_map,            #输入的特征矩阵
    num_classes=dataset.num_labels, #分类任务的类别数量,此处来自于数据集的num_labels
    config=config)                  #运行配置

run_states = task.finetune_and_eval() #通过众多finetune API中的finetune_and_eval接口,可以一边训练网络,一边打印结果

import numpy as np

import os,sys
path="pic"
dirs=os.listdir(path)
num=0
for x in dirs:
    m='pic/'+x
    dirs[num]=m
    num+=1

data =dirs       #此处传入需要识别的照片地址
label_map = dataset.label_dict()
index = 0

# get classification result
run_states = task.predict(data=data) #进行预测
results = [run_state.run_results for run_state in run_states] #得到用新模型预测test照片的结果

for batch_result in results:
    # get predict index
    batch_result = np.argmax(batch_result, axis=2)[0]
    for result in batch_result:
        index += 1
        result = label_map[result]
        print("input %i is %s, and the predict result is %s" %
              (index, data[index - 1], result))

 

  • 1
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,我可以为您提供基于 PyTorch 的代码实现,您可以在 Jupyter Notebook 中直接运行。请确保您已经安装了 PyTorch 和 torchvision 。 ### 从头开始训练模型 #### 数据集准备 首先,我们需要下载 tiny-imagenet 数据集。可以从 [官方网站](https://tiny-imagenet.herokuapp.com/) 下载,也可以使用 Kaggle 上的 [数据集](https://www.kaggle.com/c/tiny-imagenet/data)。 然后,将下载好的数据集解压到指定的目录下,如下所示: ```python !unzip -q "tiny-imagenet-200.zip" -d "./data" ``` 接下来,我们需要对数据进行预处理,将图片 resize 到固定的大小(如 224x224),并将像素值归一化到 [0, 1] 的范围内。可以使用 torchvision 中的 `transforms` 模块来进行图片的读取和处理。 ```python import os from torchvision import datasets, transforms data_dir = './data/tiny-imagenet-200' train_dir = os.path.join(data_dir, 'train') val_dir = os.path.join(data_dir, 'val') test_dir = os.path.join(data_dir, 'test') # 定义图像预处理的操作 train_transform = transforms.Compose([ transforms.Resize(256), transforms.RandomCrop(224), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) val_transform = transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) # 加载数据集 train_dataset = datasets.ImageFolder(train_dir, transform=train_transform) val_dataset = datasets.ImageFolder(val_dir, transform=val_transform) test_dataset = datasets.ImageFolder(test_dir, transform=val_transform) # 创建 DataLoader,用于加载数据 train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True) val_loader = torch.utils.data.DataLoader(val_dataset, batch_size=32, shuffle=False) test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=32, shuffle=False) ``` #### 模型构建与训练 我们使用 PyTorch 自带的 ResNet18 模型进行训练。在训练之前,需要将数据集分为训练集、验证集和测试集。可以使用 PyTorch 中的 `DataLoader` 类来进行数据的划分和加载。 ```python import torch import torch.nn as nn import torch.optim as optim # 加载预训练模型 model = torch.hub.load('pytorch/vision:v0.9.0', 'resnet18', pretrained=True) # 替换模型最后一层的输出,使其与数据集分类数相同 num_classes = len(train_dataset.classes) model.fc = nn.Linear(model.fc.in_features, num_classes) # 将模型移动到 GPU 上 device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model.to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9, weight_decay=1e-4) # 训练模型 num_epochs = 10 for epoch in range(num_epochs): # 训练模型 model.train() train_loss = 0.0 train_acc = 0.0 for i, (inputs, labels) in enumerate(train_loader): inputs = inputs.to(device) labels = labels.to(device) optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() train_loss += loss.item() * inputs.size(0) _, preds = torch.max(outputs, 1) train_acc += torch.sum(preds == labels.data) train_loss = train_loss / len(train_loader.dataset) train_acc = train_acc.double() / len(train_loader.dataset) # 在验证集上测试模型 model.eval() val_loss = 0.0 val_acc = 0.0 with torch.no_grad(): for inputs, labels in val_loader: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) loss = criterion(outputs, labels) val_loss += loss.item() * inputs.size(0) _, preds = torch.max(outputs, 1) val_acc += torch.sum(preds == labels.data) val_loss = val_loss / len(val_loader.dataset) val_acc = val_acc.double() / len(val_loader.dataset) print('Epoch [{}/{}], Train Loss: {:.4f}, Train Acc: {:.4f}, Val Loss: {:.4f}, Val Acc: {:.4f}' .format(epoch+1, num_epochs, train_loss, train_acc, val_loss, val_acc)) ``` #### 分类预测 训练完成后,可以使用测试集对模型进行测试,并计算模型在测试集上的准确率。 ```python # 在测试集上测试模型 model.eval() test_acc = 0.0 with torch.no_grad(): for inputs, labels in test_loader: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) _, preds = torch.max(outputs, 1) test_acc += torch.sum(preds == labels.data) test_acc = test_acc.double() / len(test_loader.dataset) print('Test Acc: {:.4f}'.format(test_acc)) ``` ### 使用预训练模型进行 fine-tune #### 数据集准备 与从头开始训练模型的步骤相同。 #### 模型构建与训练 我们可以使用 PyTorch 自带的 ResNet18 模型进行 fine-tune。大部分预训练模型的前面几层都是固定的,可以将这些层的参数冻结,只训练后面几层的参数。这可以提高模型的训练速度和准确率。 ```python import torch import torch.nn as nn import torch.optim as optim from torchvision import models # 加载预训练模型 model = models.resnet18(pretrained=True) # 替换模型最后一层的输出,使其与数据集分类数相同 num_classes = len(train_dataset.classes) model.fc = nn.Linear(model.fc.in_features, num_classes) # 将前面几层的参数冻结 for param in model.parameters(): param.requires_grad = False for param in model.fc.parameters(): param.requires_grad = True # 将模型移动到 GPU 上 device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') model.to(device) # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(model.fc.parameters(), lr=0.01, momentum=0.9, weight_decay=1e-4) # 训练模型 num_epochs = 10 for epoch in range(num_epochs): # 训练模型 model.train() train_loss = 0.0 train_acc = 0.0 for i, (inputs, labels) in enumerate(train_loader): inputs = inputs.to(device) labels = labels.to(device) optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() train_loss += loss.item() * inputs.size(0) _, preds = torch.max(outputs, 1) train_acc += torch.sum(preds == labels.data) train_loss = train_loss / len(train_loader.dataset) train_acc = train_acc.double() / len(train_loader.dataset) # 在验证集上测试模型 model.eval() val_loss = 0.0 val_acc = 0.0 with torch.no_grad(): for inputs, labels in val_loader: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) loss = criterion(outputs, labels) val_loss += loss.item() * inputs.size(0) _, preds = torch.max(outputs, 1) val_acc += torch.sum(preds == labels.data) val_loss = val_loss / len(val_loader.dataset) val_acc = val_acc.double() / len(val_loader.dataset) print('Epoch [{}/{}], Train Loss: {:.4f}, Train Acc: {:.4f}, Val Loss: {:.4f}, Val Acc: {:.4f}' .format(epoch+1, num_epochs, train_loss, train_acc, val_loss, val_acc)) ``` #### 分类预测 训练完成后,可以使用测试集对模型进行测试,并计算模型在测试集上的准确率。 ```python # 在测试集上测试模型 model.eval() test_acc = 0.0 with torch.no_grad(): for inputs, labels in test_loader: inputs = inputs.to(device) labels = labels.to(device) outputs = model(inputs) _, preds = torch.max(outputs, 1) test_acc += torch.sum(preds == labels.data) test_acc = test_acc.double() / len(test_loader.dataset) print('Test Acc: {:.4f}'.format(test_acc)) ``` 希望这些代码能够对您有所帮助!
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值