深度神经网络——转换 PyTorch 分类模型并用 OpenCV Python 启动 OpenCV v4.8.0

上一个教程如何运行自定义 OCR 模型

下一个教程转换 PyTorch 分类模型并用 OpenCV C++ 启动

原作者Anastasia Murzova
兼容性OpenCV >= 4.5

目标

在本教程中,你将学习如何

  • 将 PyTorch 分类模型转换为 ONNX 格式
  • 使用 OpenCV Python API 运行转换后的 PyTorch 模型
  • 对 PyTorch 和 OpenCV DNN 模型进行评估。

我们将以 ResNet-50 架构为例,探讨上述要点。

简介

让我们简要回顾一下 PyTorch 模型与 OpenCV API 转换过程中涉及的关键概念。将 PyTorch 模型转换为 cv.dnn.Net 的第一步是将模型转换为 ONNX 格式。ONNX 旨在实现神经网络在不同框架间的互换。PyTorch 中有一个用于 ONNX 转换的内置函数:torch.onnx.export。此外,获得的 .onnx 模型会被传入 cv.dnn.readNetFromONNX

要求

要使用下面的代码进行实验,您需要安装一组库。为此,我们将使用带有 python3.7+ 的虚拟环境:

virtualenv -p /usr/bin/python3.7 <env_dir_path>
source <env_dir_path>/bin/activate

要从源代码构建 OpenCV-Python,请遵循 OpenCV 简介 中的相应说明。

在开始安装库之前,可以自定义 requirements.txt,排除或包含(例如,opencv-python)某些依赖项。下面一行将启动需求安装到先前激活的虚拟环境中:

pip install -r requirements.txt

实践

在这一部分,我们将介绍以下几点:

  1. 创建分类模型转换管道并提供推论
  2. 评估和测试分类模型

如果只想运行评估或测试模型管道,可以跳过 "模型转换管道 "部分。

模型转换管道

本子章的代码位于 dnn_model_runner 模块中,可通过以下命令行执行:

python -m dnn_model_runner.dnn_conversion.pytorch.classification.py_to_py_resnet50

以下代码包含下列步骤的说明:

  1. 实例化 PyTorch 模型
  2. 将 PyTorch 模型转换为 .onnx
  3. 使用 OpenCV API 读取传输的网络
  4. 准备输入数据
  5. 提供推理
# 初始化 PyTorch ResNet-50 模型
original_model = models.resnet50(pretrained=True)
# 获取转换为 ONNX PyTorch 模型的路径
full_model_path = get_pytorch_onnx_model(original_model)
# 使用 OpenCV API 读取转换后的 .onnx 模型
opencv_net = cv2.dnn.readNetFromONNX(full_model_path)
print("OpenCV 模型已成功读取。层 ID: \n", opencv_net.getLayerNames())
# 获取预处理图像
input_img = get_preprocessed_img("../data/squirrel_cls.jpg")
# 获取图像网络标签
imagenet_labels = get_imagenet_labels("../data/dnn/classification_classes_ILSVRC2012.txt")
# 获取 OpenCV DNN 预测结果
get_opencv_dnn_prediction(opencv_net, input_img, imagenet_labels)
# 获取原始 PyTorch ResNet50 预测结果
get_pytorch_dnn_prediction(original_model, input_img, imagenet_labels)

为了提供模型推理,我们将使用下面与 ImageNet 类 ID 335 相对应的松鼠照片(采用 CC0 许可):

狐松鼠,东部狐松鼠,Sciurus niger

在这里插入图片描述

分类模型输入图像

为了对预测结果进行标签解码,我们还需要 imagenet_classes.txt 文件,其中包含 ImageNet 类别的完整列表。

让我们以经过预训练的 PyTorch ResNet-50 为例,深入了解每个步骤:

  • 实例化 PyTorch ResNet-50 模型:
# 初始化 PyTorch ResNet-50 模型
original_model = models.resnet50(pretrained=True)
  • 将 PyTorch 模型转换为 ONNX:
# 为进一步转换的模型定义保存目录
onnx_model_path = "models" # 为进一步转换的模型定义名称
# 为进一步转换的模型定义名称
onnx_model_name = "resnet50.onnx" # 为进一步转换的模型创建目录
# 为进一步转换的模型创建目录
os.makedirs(onnx_model_path, exist_ok=True)
# 获取转换后模型的完整路径
full_model_path = os.path.join(onnx_model_path, onnx_model_name)
# 生成模型输入
generated_input = Variable(
    torch.randn(1, 3, 224, 224)
)
# 将模型导出为 ONNX 格式
torch.onnx.export(
    original_model、
    generated_input,
    full_model_path、
    verbose=True、
    input_names=["input"]、
    output_names=["output"]、
    opset_version=11
)

成功执行上述代码后,我们将得到 models/resnet50.onnx

# 使用 OpenCV API 读取转换后的 .onnx 模型
opencv_net = cv2.dnn.readNetFromONNX(full_model_path)
  • 准备输入数据:
# 读取图像
input_img = cv2.imread(img_path, cv2.IMREAD_COLOR)
input_img = input_img.astype(np.float32)
input_img = cv2.resize(input_img, (256, 256))
# 定义预处理参数


mean = np.array([0.485, 0.456, 0.406]) * 255.0
scale = 1 / 255.0
std = [0.229, 0.224, 0.225] # 准备输入 blob 以拟合模型输入: 0.229, 0.224, 0.225
# 准备输入 blob 以拟合模型输入:
# 减去平均值
# 2. 将像素值从 0 缩放为 1
input_blob = cv2.dnn.blobFromImage(
    image=input_img、
    scalefactor=scale、
    size=(224, 224), # 图像目标尺寸
    mean=mean、
    swapRB=True, # BGR -> RGB
    crop=True # 居中裁剪
)
# 3. 除以标准
input_blob[0] /= np.asarray(std, dtype=np.float32).reshape(3, 1, 1)

在这一步中,我们使用 cv.dnn.blobFromImage 函数读取图像并准备模型输入,该函数返回 4 维 blob。需要注意的是,cv.dnn.blobFromImage 首先会减去平均值,然后才将像素值乘以比例。因此,平均值乘以 255.0,以重现原始图像的预处理顺序:

img /= 255.0
img -= [0.485, 0.456, 0.406] (0.485, 0.456, 0.406)
img /= [0.229, 0.224, 0.225]
# 设置 OpenCV DNN 输入
opencv_net.setInput(preproc_img)
# 设置 OpenCV DNN 输入
out = opencv_net.forward()
print("OpenCV DNN prediction: \n")
print("* shape: ", out.shape)
# 获取预测的类 ID
imagenet_class_id = np.argmax(out)
# 获取置信度
confidence = out[0][imagenet_class_id]print("* class ID: {}, label: {}".format(imagenet_class_id, imagenet_labels[imagenet_class_id]))
print("* confidence: {:.4f}".format(confidence))

执行上述代码后,我们将得到以下输出结果:

OpenCV DNN 预测:
* 形状: (1, 1000)
* 类 ID: 335, label: fox squirrel, eastern fox squirrel, Sciurus niger
* 置信度 14.8308
  • PyTorch ResNet-50 模型推论:
original_net.eval()
preproc_img = torch.FloatTensor(preproc_img)
# 推理
out = original_net(preproc_img)
print("\nPyTorch 模型预测:\n")
print("* shape: ", out.shape)
# 获取预测的类 ID
imagenet_class_id = torch.argmax(out, axis=1).item()
print("* class ID: {}, label: {}".format(imagenet_class_id, imagenet_labels[imagenet_class_id]))
# 获取置信度
confidence = out[0][imagenet_class_id]print("* confidence: {:.4f}".format(confidence.item())

执行上述代码后,我们将得到以下输出结果:

PyTorch 模型预测:
* shape: torch.Size([1, 1000])
* 类 ID: 335, label: fox squirrel, eastern fox squirrel, Sciurus niger
* 置信度 14.8308

原始 ResNet-50 模型和 cv.dnn.Net 的推理结果相同。为了对模型进行扩展评估,我们可以使用 dnn_model_runner 模块中的 py_to_py_cls。该模块部分将在下一章中介绍。

模型评估

samples/dnn 中提出的 dnn_model_runner 模块允许在 ImageNet 数据集上运行完整的评估管道,并对以下 PyTorch 分类模型进行测试执行:

  • alexnet
  • vgg11
  • vgg13
  • vgg16
  • vgg19
  • resnet18
  • resnet34
  • resnet50
  • resnet101
  • resnet152
  • squeezenet1_0
  • squeezenet1_1
  • resnext50_32x4d
  • resnext101_32x8d
  • wide_resnet50_2
  • wide_resnet101_2

该列表还可通过进一步适当的评估流水线配置进行扩展。

评估模式

下面一行表示在评估模式下运行模块:

python -m dnn_model_runner.dnn_conversion.pytorch.classification.py_to_py_cls--model_name<pytorch_cls_model_name>

从列表中选择的分类模型将被读入 OpenCV cv.dnn.Net 对象。PyTorch 和 OpenCV 模型的评估结果(准确率、推理时间、L1)将写入日志文件。推理时间值也将以图表形式显示,以概括所获得的模型信息。

必要的评估配置在 test_config.py 中定义,可根据数据位置的实际路径进行修改:

@dataclass
class TestClsConfig:
    batch_size: int = 50
    frame_size: int = 224
    img_root_dir: str = "./ILSVRC2012_img_val" # 图像类匹配的位置
    # 图像类匹配的位置
    img_cls_file: str = "./val.txt" # 图像类匹配的位置
    bgr_too_rgb: bool = True

要启动 PyTorch ResNet-50 的评估,请运行以下一行:

python -m dnn_model_runner.dnn_conversion.pytorch.classification.py_to_py_cls --model_name resnet50

脚本启动后,包含评估数据的日志文件将在 dnn_model_runner/dnn_conversion/logs 中生成:

模型 PyTorch resnet50 已成功获取并转换为 OpenCV DNN resnet50
===== 正在使用以下参数对模型进行评估:
    * Val 数据位置:./ILSVRC2012_img_val
    * 日志文件位置:dnn_model_runner/dnn_conversion/logs/PyTorch_resnet50_log.txt

测试模式

下面一行表示在测试模式下运行模块,即提供模型推理的步骤:

python -m dnn_model_runner.dnn_conversion.pytorch.classification.py_to_py_cls --model_name <pytorch_cls_model_name> --test True --default_img_preprocess <True/False> --evaluate False

这里的 default_img_preprocess 关键字定义您是想用某些特定值参数化模型测试过程,还是使用默认值,例如 scalemeanstd

测试配置在 test_config.py TestClsModuleConfig 类中表示:

@dataclass
class TestClsModuleConfig:
    cls_test_data_dir: str = "../data"
    test_module_name: str = "classification"
    test_module_path: str = "classification.py"
    input_img: str = os.path.join(cls_test_data_dir, "squirrel_cls.jpg")
    model: str = ""
    frame_height: str = str(TestClsConfig.frame_size)
    frame_width: str = str(TestClsConfig.frame_size)
    scale: str = "1.0"
    mean: List[str] = field(default_factory=lambda: ["0.0", "0.0", "0.0"])
    std: List[str] = field(default_factory=list)
    crop: str = "False"
    rgb: str = "True"
    rsz_height: str = ""
    rsz_width: str = ""
    classes: str = os.path.join(cls_test_data_dir, "dnn", "classification_classes_ILSVRC2012.txt")

默认图像预处理选项在 default_preprocess_config.py 中定义。例如

BASE_IMG_SCALE_FACTOR = 1 / 255.0
PYTORCH_RSZ_HEIGHT = 256
PYTORCH_RSZ_WIDTH = 256
pytorch_resize_input_blob = {
    "mean": ["123.675", "116.28", "103.53"],
    "scale": str(BASE_IMG_SCALE_FACTOR),
    "std": ["0.229", "0.224", "0.225"],
    "crop": "True",
    "rgb": "True",
    "rsz_height": str(PYTORCH_RSZ_HEIGHT),
    "rsz_width": str(PYTORCH_RSZ_WIDTH)
}

samples/dnn/classification.py 中提供了模型测试的基础。Classification.py 可以使用 --input 中提供的转换模型和 cv.dnn.blobFromImage 的填充参数自动执行。

要从头开始使用 dnn_model_runner 重现 "模型转换管道 "中描述的 OpenCV 步骤,请执行以下一行:

python -m dnn_model_runner.dnn_conversion.pytorch.classification.py_to_py_cls --model_name resnet50 --test True --default_img_preprocess True --evaluate False

网络预测结果显示在输出窗口的左上角:

在这里插入图片描述

ResNet50 OpenCV 推理输出
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值