[动手学PaddlePaddle2.0系列] 通过飞桨高层API实现迁移学习任务(102种鲜花识别)
作者:lwb
时间:2020.11
本篇将介绍如何通过飞桨高层API实现迁移学习任务,数据集采用VGG出品的鲜花数据集,该数据集可通过paddle的API直接下载。
该案例主要参考了『跟着雨哥学AI』系列01:初识飞桨框架高层API
import warnings
warnings.filterwarnings("ignore")
import paddle
print(paddle.__version__)
2.0.0-rc0
1 数据集导入及预处理
对于数据预处理与数据加载,飞桨框架提供了许多API,列表如下:
1、 飞桨框架内置数据集:paddle.vision.datasets内置包含了许多CV领域相关的数据集,直接调用API即可使用;
2、 飞桨框架数据预处理:paddle.vision.transforms飞桨框架对于图像预处理的方式,可以快速完成常见的图像预处理的方式,如调整色调、对比度,图像大小等;
3、 飞桨框架数据加载:paddle.io.Dataset与paddle.io.DataLoader飞桨框架标准数据加载方式,可以”一键”完成数据的批加载与异步加载;
1.1 飞桨框架内置数据集
首先,飞桨框架将常用的数据集作为领域API对用户开放,对应API所在目录为paddle.vision.datasets包含的数据集如下所示。
print("飞桨框架CV领域内置数据集:" + str(paddle.vision.datasets.__all__))
飞桨框架CV领域内置数据集:['DatasetFolder', 'ImageFolder', 'MNIST', 'Flowers', 'Cifar10', 'Cifar100', 'VOC2012']
1.2 飞桨框架预处理方法
飞桨框架提供了20多种数据集预处理的接口,方便开发者快速实现数据增强,目前都集中在 paddle.vision.transforms 目录下,具体包含的API如下:
print('视觉数据预处理方法:' + str(paddle.vision.transforms.__all__))
视觉数据预处理方法:['BaseTransform', 'Compose', 'Resize', 'RandomResizedCrop', 'CenterCrop', 'RandomHorizontalFlip', 'RandomVerticalFlip', 'Transpose', 'Normalize', 'BrightnessTransform', 'SaturationTransform', 'ContrastTransform', 'HueTransform', 'ColorJitter', 'RandomCrop', 'Pad', 'RandomRotation', 'Grayscale', 'ToTensor', 'to_tensor', 'hflip', 'vflip', 'resize', 'pad', 'rotate', 'to_grayscale', 'crop', 'center_crop', 'adjust_brightness', 'adjust_contrast', 'adjust_hue', 'to_grayscale', 'normalize']
1.3 数据集加载及预处理
本应用案例使用飞桨内置的鲜花数据集,共102种。
print('视觉数据预处理方法:' + str(paddle.vision.transforms.__all__))
视觉数据预处理方法:['BaseTransform', 'Compose', 'Resize', 'RandomResizedCrop', 'CenterCrop', 'RandomHorizontalFlip', 'RandomVerticalFlip', 'Transpose', 'Normalize', 'BrightnessTransform', 'SaturationTransform', 'ContrastTransform', 'HueTransform', 'ColorJitter', 'RandomCrop', 'Pad', 'RandomRotation', 'Grayscale', 'ToTensor', 'to_tensor', 'hflip', 'vflip', 'resize', 'pad', 'rotate', 'to_grayscale', 'crop', 'center_crop', 'adjust_brightness', 'adjust_contrast', 'adjust_hue', 'to_grayscale', 'normalize']
from paddle.vision.datasets import Flowers
import paddle.vision.transforms as T
class FlowerDataset(Flowers):
def __init__(self, mode, transform):
super(FlowerDataset, self).__init__(mode=mode, transform=transform)
def __getitem__(self, index):
image, label = super(FlowerDataset, self).__getitem__(index)
return image, label - 1
transform = T.Compose([
T.Resize([224,224]),
T.Transpose(),
T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
])
train_dataset = FlowerDataset(mode='train', transform=transform)
test_dataset = FlowerDataset(mode='test', transform=transform)
2 模型构建
在网络构建模块,飞桨高层API与基础API保持完全的一致,都使用paddle.nn下的API进行组网。这也是尽可能的减少需要暴露的概念,从而提升框架的易学性。飞桨框架 paddle.nn 目录下包含了所有与模型组网相关的API,如卷积相关的
Conv1D、Conv2D、Conv3D,循环神经网络相关的 RNN、LSTM、GRU 等。
对于组网方式,飞桨框架统一支持 Sequential 或 SubClass 的方式进行模型的组建。我们根据实际的使用场景,来选择最合适的组网方式。如针对顺序的线性网络结构我们可以直接使用 Sequential ,相比于 SubClass ,Sequential 可以
快速的完成组网。 如果是一些比较复杂的网络结构,我们可以使用 SubClass 定义的方式来进行模型代码编写,在 init 构造函数中进行 Layer 的声明,在 forward 中使用声明的 Layer 变量进行前向计算。通过这种方式,我们可以组建
更灵活的网络结构。
除了自定义模型结构外,飞桨框架还”贴心”的内置了许多模型,真正的一行代码实现深度学习模型。目前,飞桨框架内置的模型都是CV领域领域的模型,在paddle.vision.models目录下,具体包含如下的模型:
print("视觉相关模型: " + str(paddle.vision.models.__all__))
视觉相关模型: ['ResNet', 'resnet18', 'resnet34', 'resnet50', 'resnet101', 'resnet152', 'VGG', 'vgg11', 'vgg13', 'vgg16', 'vgg19', 'MobileNetV1', 'mobilenet_v1', 'MobileNetV2', 'mobilenet_v2', 'LeNet']
from paddle.vision.models import resnet18
# build model
model = resnet18(pretrained=True, num_classes=102, with_pool=True)
3 模型训练
过去常常困扰深度学习开发者的一个问题是,模型训练的代码过于复杂,常常要写好多步骤,才能正确的使程序运行起来,冗长的代码使许多开发者望而却步。
现在,飞桨高层API将训练、评估与预测API都进行了封装,直接使用Model.prepare()、Model.fit()、Model.evaluate()、Model.predict()完成模型的训练、评估与预测。
3.1 配置模型
from paddle.metric import Accuracy
# 调用飞桨框架的VisualDL模块,保存信息到目录中。
callback = paddle.callbacks.VisualDL(log_dir='visualdl_log_dir')
model = paddle.Model(model)
optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
# model.prepare()
# 配置模型
model.prepare(
optim,
paddle.nn.CrossEntropyLoss(),
Accuracy(topk=(1, 2))
)
其实,这里也会用到上文提到的自定义Callback,我们只需要自定义与loss相关的Callback,然后保存loss信息,最后将其转化为图片即可。具体的实现过程如下所示:
# from paddle.metric import Accuracy
# # 调用飞桨框架的VisualDL模块,保存信息到目录中。
# # callback = paddle.callbacks.VisualDL(log_dir='visualdl_log_dir')
# # 自定义Callback 记录训练过程中的loss信息
# class LossCallback(paddle.callbacks.Callback):
# def on_train_begin(self, logs={}):
# # 在fit前 初始化losses,用于保存每个batch的loss结果
# self.losses = []
# self.acc = []
# def on_train_batch_end(self, step, logs={}):
# # 每个batch训练完成后调用,把当前loss添加到losses中
# self.losses.append(logs.get('loss'))
# self.acc.append(logs.get('acc_top1'))
# # 初始化一个loss_log 的实例,然后将其作为参数传递给fit
# loss_log = LossCallback()
# model = paddle.Model(model)
# optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
# # model.prepare()
# # 配置模型
# model.prepare(
# optim,
# paddle.nn.CrossEntropyLoss(),
# Accuracy(topk=(1, 2))
# )
3.2 模型训练
model.fit(train_dataset,
epochs=2,
batch_size=32,
verbose=1,
#callbacks=loss_log
callbacks=callback
)
Epoch 1/2
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
return (isinstance(seq, collections.Sequence) and
step 193/193 [==============================] - loss: 1.3456 - acc_top1: 0.6142 - acc_top2: 0.7214 - 20s/step
Epoch 2/2
step 193/193 [==============================] - loss: 1.1202 - acc_top1: 0.8453 - acc_top2: 0.9270 - 20s/step
然后我们调用VisualDL工具,在命令行中输入: visualdl --logdir ./visualdl_log_dir --port 8080
,打开浏览器,输入网址 http://127.0.0.1:8080 就可以在浏览器中看到相关的训练信息,具体如下:(attachment:1607334281%281%29.jpg)
使用自定义回调函数的可视化信息如下:
3.3 模型验证
model.evaluate(test_dataset, batch_size=32, verbose=1)
Eval begin...
step 32/32 [==============================] - loss: 1.9857 - acc_top1: 0.6000 - acc_top2: 0.7255 - 20s/step
Eval samples: 1020
{'loss': [1.9857073], 'acc_top1': 0.6, 'acc_top2': 0.7254901960784313}