PaddleHub之《青春有你2》五人识别

好久没更新推文了。今天分享上次参加百度训练营的作业。主要是利用PaddleHub进行图像分类训练,然后识别。做的过程遇到问题比较多。比如路径问题,训练集和验证集制作,参数调优等。

目录与训练数据参考:

一、任务简介

图像分类是计算机视觉的重要领域,它的目标是将图像分类到预定义的标签。近期,许多研究者提出很多不同种类的神经网络,并且极大的提升了分类算法的性能。本文以自己创建的数据集:青春有你2中选手识别为例子,介绍如何使用PaddleHub进行图像分类任务。

 

#CPU环境启动请务必执行该指令%set_env CPU_NUM=1 #安装paddlehub!pip install paddlehub==1.6.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

二、任务实践

Step1、基础工作

加载数据文件

导入python包

!unzip -o file.zip -d ./dataset/import paddlehub as hub

Step2、加载预训练模型

接下来我们要在PaddleHub中选择合适的预训练模型来Finetune,由于是图像分类任务,因此我们使用经典的ResNet-50作为预训练模型。PaddleHub提供了丰富的图像分类预训练模型,包括了最新的神经网络架构搜索类的PNASNet,我们推荐您尝试不同的预训练模型来获得更好的性能。

module = hub.Module(name="resnet_v2_50_imagenet")

Step3、数据准备

接着需要加载图片数据集。我们使用自定义的数据进行体验,请查看适配自定义数据

from paddlehub.dataset.base_cv_dataset import BaseCVDataset   class DemoDataset(BaseCVDataset):     def __init__(self):         # 数据集存放位置              self.dataset_dir = "dataset"       super(DemoDataset, self).__init__(           base_path=self.dataset_dir,           train_list_file="train_list.txt",           validate_list_file="validate_list.txt",           test_list_file="test_list.txt",           label_list_file="label_list.txt",           )dataset = DemoDataset()

Step4、生成数据读取器

接着生成一个图像分类的reader,reader负责将dataset的数据进行预处理,接着以特定格式组织并输入给模型进行训练。

当我们生成一个图像分类的reader时,需要指定输入图片的大小

​​​​​​​

data_reader = hub.reader.ImageClassificationReader(    image_width=module.get_expected_image_width(),    image_height=module.get_expected_image_height(),    images_mean=module.get_pretrained_images_mean(),    images_std=module.get_pretrained_images_std(),    dataset=dataset)    

    

Step5、配置策略

在进行Finetune前,我们可以设置一些运行时的配置,例如如下代码中的配置,表示:

  • use_cuda:设置为False表示使用CPU进行训练。如果您本机支持GPU,且安装的是GPU版本的PaddlePaddle,我们建议您将这个选项设置为True;

  • epoch:迭代轮数;

  • batch_size:每次训练的时候,给模型输入的每批数据大小为32,模型训练时能够并行处理批数据,因此batch_size越大,训练的效率越高,但是同时带来了内存的负荷,过大的batch_size可能导致内存不足而无法训练,因此选择一个合适的batch_size是很重要的一步;

  • log_interval:每隔10 step打印一次训练日志;

  • eval_interval:每隔50 step在验证集上进行一次性能评估;

  • checkpoint_dir:将训练的参数和数据保存到cv_finetune_turtorial_demo目录中;

  • strategy:使用DefaultFinetuneStrategy策略进行finetune;

更多运行配置,请查看RunConfig

同时PaddleHub提供了许多优化策略,如AdamWeightDecayStrategyULMFiTStrategyDefaultFinetuneStrategy等,详细信息参见策略

​​​​​​​

config = hub.RunConfig(    use_cuda=False,                              #是否使用GPU训练,默认为False;    num_epoch=8,                                #Fine-tune的轮数;    checkpoint_dir="cv_finetune_turtorial_demo",#模型checkpoint保存路径, 若用户没有指定,程序会自动生成;    batch_size=5,                              #训练的批大小,如果使用GPU,请根据实际情况调整batch_size;    eval_interval=10,                           #模型评估的间隔,默认每100个step评估一次验证集;    strategy=hub.finetune.strategy.DefaultFinetuneStrategy())  #Fine-tune优化策略;

    

Step6、组建Finetune Task

有了合适的预训练模型和准备要迁移的数据集后,我们开始组建一个Task。

由于该数据设置是一个二分类的任务,而我们下载的分类module是在ImageNet数据集上训练的千分类模型,所以我们需要对模型进行简单的微调,把模型改造为一个二分类模型:

  1. 获取module的上下文环境,包括输入和输出的变量,以及Paddle Program;

  2. 从输出变量中找到特征图提取层feature_map;

  3. 在feature_map后面接入一个全连接层,生成Task;

input_dict, output_dict, program = module.context(trainable=True)img = input_dict["image"]feature_map = output_dict["feature_map"]feed_list = [img.name]
task = hub.ImageClassifierTask(    data_reader=data_reader,    feed_list=feed_list,    feature=feature_map,    num_classes=dataset.num_labels,    config=config)

    

Step5、开始Finetune

我们选择finetune_and_eval接口来进行模型训练,这个接口在finetune的过程中,会周期性的进行模型效果的评估,以便我们了解整个训练过程的性能变化。

run_states = task.finetune_and_eval()

Step6、预测

当Finetune完成后,我们使用模型来进行预测,先通过以下命令来获取测试的图片

import numpy as npimport matplotlib.pyplot as plt import matplotlib.image as mpimg
with open("dataset/test_list.txt","r") as f:    filepath = f.readlines()
data = [filepath[0].split(" ")[0],filepath[1].split(" ")[0],filepath[2].split(" ")[0],filepath[3].split(" ")[0],filepath[4].split(" ")[0]]
label_map = dataset.label_dict()index = 0run_states = task.predict(data=data)results = [run_state.run_results for run_state in run_states]
for batch_result in results:    print(batch_result)    batch_result = np.argmax(batch_result, axis=2)[0]    print(batch_result)    for result in batch_result:        index += 1        result = label_map[result]        print("input %i is %s, and the predict result is %s" %              (index, data[index - 1], result))
img = mpimg.imread(data[0]) img1 = mpimg.imread(data[1])img2 = mpimg.imread(data[2])  img3 = mpimg.imread(data[3]) img4 = mpimg.imread(data[4]) plt.figure(figsize=(10,10))plt.subplot(1,5,1)plt.imshow(img)plt.axis('off')
plt.subplot(1,5,2)plt.imshow(img1)plt.axis('off')
plt.subplot(1,5,3)plt.imshow(img2)plt.axis('off')
plt.subplot(1,5,4)plt.imshow(img3)plt.axis('off')
plt.subplot(1,5,5)plt.imshow(img4)plt.axis('off')

plt.show()print("  input1 虞书欣    input2 许佳琪     input3 赵小棠    input4 安崎     input5 王承渲 ")

 

训练完得到模型后,应用模型预测结果如下:

 

看完案例的小伙伴们点个在看,顺便扫码帮忙关注一下呗,你的支持是我继续推新案例的动力。

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值