一、简介
本任务为,将此前我们找到的准确率最高的预训练网络模型,改造为可以从图片中,帮我们分类5类中草药。
——注意:前面的一到八,八个步骤需要使用我们的中草药数据集,同时介绍如何使用PaddleHub进行Fine-tune迁移训练图像分类。
我们的任务:
一.需要同学们完善一到八八个步骤的代码(两处+中草药数据集构造),使其可以根据选择的预训练模型进行迁移训练。
二.需要再寻找50张中草药图片(百合、党参、枸杞、淮化、金银花),使用预训练模型进行分类识别。 最后,要么使用代码将50张图片放入不同文件夹,要么使用文本不同种类中草药的文件名
请务必使用GPU环境, 因为下方的代码基于GPU环境. 请务必使用GPU环境, 因为下方的代码基于GPU环境.
当前平台正在进行普遍赠送, 只要点击此处表单进行填写, 之后再度运行即可获赠.
二、准备工作
首先导入必要的python包
!pip install paddlehub==1.6.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
# -*- coding: utf8 -*-
import paddlehub as hub
接下来我们要在PaddleHub中选择合适的预训练模型来Finetune。
请在此处选择前期任务准确率最高的模型
# 选择模型
# 此处代码为加载Hub提供的图像分类的预训练模型
module = hub.Module(name=" ")
PaddleHub 还有着许多的图像分类预训练模型,更多信息参见PaddleHub官方网站
三、数据准备
此处的数据准备使用的是paddlehub提供的猫狗分类数据集,如果想要使用自定义的数据进行体验,需要自定义数据,请查看适配自定义数据
# 此处演示的是直接用PaddleHub提供的数据集
# 同学们需要将此段代码更换为使用自己的代码
dataset = hub.dataset.DogCat()
如果想加载自定义数据集完成迁移学习,详细参见自定义数据集
四、生成Reader
接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。
当我们生成一个图像分类的reader时,需要指定输入图片的大小
#接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。
#当我们生成一个图像分类的reader时,需要指定输入图片的大小
data_reader = hub.reader.ImageClassificationReader(
image_width=module.get_expected_image_width(), #预期图片经过reader处理后的图像宽度
image_height=module.get_expected_image_height(),#预期图片经过reader处理后的图像高度
images_mean=module.get_pretrained_images_mean(),#进行图片标准化处理时所减均值。默认为None
images_std=module.get_pretrained_images_std(), #进行图片标准化处理时所除标准差。默认为None
dataset=dataset)
五、选择运行时配置
在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:
-
use_cuda
:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True; -
epoch
:要求Finetune的任务只遍历1次训练集; -
batch_size
:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步; -
log_interval
:每隔10 step打印一次训练日志; -
eval_interval
:每隔50 step在验证集上进行一次性能评估; -
checkpoint_dir
:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中; -
strategy
:使用DefaultFinetuneStrategy策略进行finetune;
更多运行配置,请查看RunConfig
同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategy
、ULMFiTStrategy
、DefaultFinetuneStrategy
等,详细信息参见策略
config = hub.RunConfig(
use_cuda=True, #重点!!:是否使用GPU训练,默认为False;
num_epoch=1, #Fine-tune的轮数;
checkpoint_dir="cv_finetune_turtorial_demo", #模型checkpoint保存路径, 若用户没有指定,程序会自动生成;
batch_size=32, #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;
eval_interval=50, #模型评估的间隔,默认每100个step评估一次验证集;
strategy=hub.finetune.strategy.DefaultFinetuneStrategy()) #Fine-tune优化策略;
六、组建Finetune Task
有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。
由于中草药分类是一个五分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个五分类模型:
- 获取module的上下文环境,包括输入和输出的变量,以及Paddle Program;
- 从输出变量中找到特征图提取层feature_map;
- 在feature_map后面接入一个全连接层,生成Task;
#获取module的上下文信息包括输入、输出变量以及paddle program
input_dict, output_dict, program = module.context(trainable=True)
#待传入图片格式
img = input_dict["image"]
#从预训练模型的输出变量中找到最后一层特征图,提取最后一层的feature_map
feature_map = output_dict["feature_map"]
#待传入的变量名字列表
feed_list = [img.name]
task = hub.ImageClassifierTask(
data_reader=data_reader, #提供数据的Reader
feed_list=feed_list, #待feed变量的名字列表
feature=feature_map, #输入的特征矩阵
num_classes=dataset.num_labels, #分类任务的类别数量,此处来自于数据集的num_labels
config=config) #运行配置
如果想改变迁移任务组网,详细参见自定义迁移任务
七、开始Finetune
我们选择finetune_and_eval
接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。
run_states = task.finetune_and_eval() #通过众多finetune API中的finetune_and_eval接口,可以一边训练网络,一边打印结果
八、使用模型进行预测
当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片
预测代码如下:
import numpy as np
data = [" "] #此处传入需要识别的照片地址
label_map = dataset.label_dict()
index = 0
# get classification result
run_states = task.predict(data=data) #进行预测
results = [run_state.run_results for run_state in run_states] #得到用新模型预测test照片的结果
for batch_result in results:
# get predict index
batch_result = np.argmax(batch_result, axis=2)[0]
for result in batch_result:
index += 1
result = label_map[result]
print("input %i is %s, and the predict result is %s" %
(index, data[index - 1], result))
九、将50张中草药图片进行五分类的的输出
需要同学们另外寻找50张中草药图片(百合、党参、枸杞、淮化、金银花),不能使用我发出的训练集里的图片,使用预训练模型进行分类识别。 最后,要么使用代码将50张图片放入不同文件夹,要么使用文本不同种类中草药的文件名
#此处开始进行分类