[动手学PaddlePaddle2.0系列] 通过飞桨高层API实现迁移学习任务(102种鲜花识别)

[动手学PaddlePaddle2.0系列] 通过飞桨高层API实现迁移学习任务(102种鲜花识别)

作者:lwb

时间:2020.11

本篇将介绍如何通过飞桨高层API实现迁移学习任务,数据集采用VGG出品的鲜花数据集,该数据集可通过paddle的API直接下载。

该案例主要参考了『跟着雨哥学AI』系列01:初识飞桨框架高层API

import warnings
warnings.filterwarnings("ignore")
import paddle
print(paddle.__version__)
2.0.0-rc0

1 数据集导入及预处理

对于数据预处理与数据加载,飞桨框架提供了许多API,列表如下:

1、 飞桨框架内置数据集:paddle.vision.datasets内置包含了许多CV领域相关的数据集,直接调用API即可使用;

2、 飞桨框架数据预处理:paddle.vision.transforms飞桨框架对于图像预处理的方式,可以快速完成常见的图像预处理的方式,如调整色调、对比度,图像大小等;

3、 飞桨框架数据加载:paddle.io.Dataset与paddle.io.DataLoader飞桨框架标准数据加载方式,可以”一键”完成数据的批加载与异步加载;

1.1 飞桨框架内置数据集

首先,飞桨框架将常用的数据集作为领域API对用户开放,对应API所在目录为paddle.vision.datasets包含的数据集如下所示。

print("飞桨框架CV领域内置数据集:" + str(paddle.vision.datasets.__all__))
飞桨框架CV领域内置数据集:['DatasetFolder', 'ImageFolder', 'MNIST', 'Flowers', 'Cifar10', 'Cifar100', 'VOC2012']
1.2 飞桨框架预处理方法

飞桨框架提供了20多种数据集预处理的接口,方便开发者快速实现数据增强,目前都集中在 paddle.vision.transforms 目录下,具体包含的API如下:

print('视觉数据预处理方法:' + str(paddle.vision.transforms.__all__))
视觉数据预处理方法:['BaseTransform', 'Compose', 'Resize', 'RandomResizedCrop', 'CenterCrop', 'RandomHorizontalFlip', 'RandomVerticalFlip', 'Transpose', 'Normalize', 'BrightnessTransform', 'SaturationTransform', 'ContrastTransform', 'HueTransform', 'ColorJitter', 'RandomCrop', 'Pad', 'RandomRotation', 'Grayscale', 'ToTensor', 'to_tensor', 'hflip', 'vflip', 'resize', 'pad', 'rotate', 'to_grayscale', 'crop', 'center_crop', 'adjust_brightness', 'adjust_contrast', 'adjust_hue', 'to_grayscale', 'normalize']
1.3 数据集加载及预处理

本应用案例使用飞桨内置的鲜花数据集,共102种。

print('视觉数据预处理方法:' + str(paddle.vision.transforms.__all__))
视觉数据预处理方法:['BaseTransform', 'Compose', 'Resize', 'RandomResizedCrop', 'CenterCrop', 'RandomHorizontalFlip', 'RandomVerticalFlip', 'Transpose', 'Normalize', 'BrightnessTransform', 'SaturationTransform', 'ContrastTransform', 'HueTransform', 'ColorJitter', 'RandomCrop', 'Pad', 'RandomRotation', 'Grayscale', 'ToTensor', 'to_tensor', 'hflip', 'vflip', 'resize', 'pad', 'rotate', 'to_grayscale', 'crop', 'center_crop', 'adjust_brightness', 'adjust_contrast', 'adjust_hue', 'to_grayscale', 'normalize']
from paddle.vision.datasets import Flowers
import paddle.vision.transforms as T

class FlowerDataset(Flowers):
    def __init__(self, mode, transform):
        super(FlowerDataset, self).__init__(mode=mode, transform=transform)

    def __getitem__(self, index):
        image, label = super(FlowerDataset, self).__getitem__(index)

        return image, label - 1

transform = T.Compose([
                    T.Resize([224,224]),
                    T.Transpose(),
                    T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
                ])
                
train_dataset = FlowerDataset(mode='train', transform=transform)
test_dataset = FlowerDataset(mode='test', transform=transform)

2 模型构建

在网络构建模块,飞桨高层API与基础API保持完全的一致,都使用paddle.nn下的API进行组网。这也是尽可能的减少需要暴露的概念,从而提升框架的易学性。飞桨框架 paddle.nn 目录下包含了所有与模型组网相关的API,如卷积相关的

Conv1D、Conv2D、Conv3D,循环神经网络相关的 RNN、LSTM、GRU 等。

对于组网方式,飞桨框架统一支持 Sequential 或 SubClass 的方式进行模型的组建。我们根据实际的使用场景,来选择最合适的组网方式。如针对顺序的线性网络结构我们可以直接使用 Sequential ,相比于 SubClass ,Sequential 可以

快速的完成组网。 如果是一些比较复杂的网络结构,我们可以使用 SubClass 定义的方式来进行模型代码编写,在 init 构造函数中进行 Layer 的声明,在 forward 中使用声明的 Layer 变量进行前向计算。通过这种方式,我们可以组建

更灵活的网络结构。

除了自定义模型结构外,飞桨框架还”贴心”的内置了许多模型,真正的一行代码实现深度学习模型。目前,飞桨框架内置的模型都是CV领域领域的模型,在paddle.vision.models目录下,具体包含如下的模型:

print("视觉相关模型: " + str(paddle.vision.models.__all__))
视觉相关模型: ['ResNet', 'resnet18', 'resnet34', 'resnet50', 'resnet101', 'resnet152', 'VGG', 'vgg11', 'vgg13', 'vgg16', 'vgg19', 'MobileNetV1', 'mobilenet_v1', 'MobileNetV2', 'mobilenet_v2', 'LeNet']
from paddle.vision.models import resnet18

# build model
model = resnet18(pretrained=True, num_classes=102, with_pool=True)

3 模型训练

过去常常困扰深度学习开发者的一个问题是,模型训练的代码过于复杂,常常要写好多步骤,才能正确的使程序运行起来,冗长的代码使许多开发者望而却步。

现在,飞桨高层API将训练、评估与预测API都进行了封装,直接使用Model.prepare()、Model.fit()、Model.evaluate()、Model.predict()完成模型的训练、评估与预测。

3.1 配置模型
from paddle.metric import Accuracy

# 调用飞桨框架的VisualDL模块,保存信息到目录中。
callback = paddle.callbacks.VisualDL(log_dir='visualdl_log_dir')

model = paddle.Model(model)
optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
# model.prepare()
# 配置模型
model.prepare(
    optim,
    paddle.nn.CrossEntropyLoss(),
    Accuracy(topk=(1, 2))
    )

其实,这里也会用到上文提到的自定义Callback,我们只需要自定义与loss相关的Callback,然后保存loss信息,最后将其转化为图片即可。具体的实现过程如下所示:

# from paddle.metric import Accuracy

# # 调用飞桨框架的VisualDL模块,保存信息到目录中。
# # callback = paddle.callbacks.VisualDL(log_dir='visualdl_log_dir')


# # 自定义Callback 记录训练过程中的loss信息
# class LossCallback(paddle.callbacks.Callback):

#     def on_train_begin(self, logs={}):
#         # 在fit前 初始化losses,用于保存每个batch的loss结果
#         self.losses = []
#         self.acc = []

#     def on_train_batch_end(self, step, logs={}):
#         # 每个batch训练完成后调用,把当前loss添加到losses中
#         self.losses.append(logs.get('loss'))
#         self.acc.append(logs.get('acc_top1'))
# # 初始化一个loss_log 的实例,然后将其作为参数传递给fit
# loss_log = LossCallback()

# model = paddle.Model(model)
# optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
# # model.prepare()
# # 配置模型
# model.prepare(
#     optim,
#     paddle.nn.CrossEntropyLoss(),
#     Accuracy(topk=(1, 2))
#     )
3.2 模型训练
model.fit(train_dataset,
        epochs=2,
        batch_size=32,
        verbose=1,
        #callbacks=loss_log
        callbacks=callback
        )
Epoch 1/2


/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  return (isinstance(seq, collections.Sequence) and


step 193/193 [==============================] - loss: 1.3456 - acc_top1: 0.6142 - acc_top2: 0.7214 - 20s/step          
Epoch 2/2
step 193/193 [==============================] - loss: 1.1202 - acc_top1: 0.8453 - acc_top2: 0.9270 - 20s/step          

然后我们调用VisualDL工具,在命令行中输入: visualdl --logdir ./visualdl_log_dir --port 8080,打开浏览器,输入网址 http://127.0.0.1:8080 就可以在浏览器中看到相关的训练信息,具体如下:(attachment:1607334281%281%29.jpg)

使用自定义回调函数的可视化信息如下:


3.3 模型验证
model.evaluate(test_dataset, batch_size=32, verbose=1)
Eval begin...
step 32/32 [==============================] - loss: 1.9857 - acc_top1: 0.6000 - acc_top2: 0.7255 - 20s/step          
Eval samples: 1020





{'loss': [1.9857073], 'acc_top1': 0.6, 'acc_top2': 0.7254901960784313}
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值