将ONNX对象检测模型转换为iOS Core ML(一)

目录

介绍

使用YOLO进行物体检测

寻找正确的模型

将ONNX转换为Core ML

下一步


总目录 

将ONNX对象检测模型转换为iOS Core ML(一)

 

在本文中,我们将从YOLO对象检测模型从开放神经网络交换格式(ONNX)到Core ML的转换开始。

介绍

在上一个系列文章中,我们创建了一个用于图像分类的iOS应用程序。但是,在许多情况下,仅给图片分配一个标签是不够的。例如,在安全系统中,您不仅想知道图片中是否有手提箱,还想知道手提箱在哪里,以及它是否被人包围或被遗弃。

对象检测模型可以帮助我们实现这一目标。在本系列中,我们将使用预训练的模型来创建一个iOS应用程序,该应用程序将在实时摄像头Feed中(而非静态图片中)检测多个人和物体。

本系列假定您熟悉PythonCondaONNX,并且具有使用Xcode开发iOS应用程序的经验。我们将使用macOS 10.15 +Xcode 11.7+iOS 13+运行代码。

要创建coreml Conda环境,请使用下载的代码中的env-coreml.yml文件和以下命令:

$ conda env create -f env-coreml.yml
$ conda activate coreml
$ jupyter notebook

在本文中,我们将从YOLO对象检测模型从开放式神经网络交换格式(ONNX)到Core ML的转换开始。尽管您可以从头开始训练自己的对象检测器,但这将是一项令人沮丧的练习。除非您拥有大量的训练数据集并花大量时间在GPU上,否则使用预训练的YOLO对象检测模型将获得更加准确的结果。

使用YOLO进行物体检测

对象检测模型接受图像作为输入,并返回带有相应标签和边界框的检测对象列表。

上面的图像取自打开图像数据集

在本系列中,我们将使用YOLO架构,更精确地说,该架构是在文章“ YOLO9000:更好更快更强YOLO v2中首次引入的。YOLO代表您只看一次,它反映了其基本思想:图像数据通过神经网络的单次传递即可产生检测结果。许多文章都在详细解释YOLO的工作方式。例如“ YOLO:实时对象检测使用YOLO进行实时对象检测。在这里,我们将重点介绍基础知识。

YOLO将输入图像划分为网格。对于每个网格单元,它将计算带有相应对象标签的多个框。为了使事情变得容易一些(对于模型,不是对使用模型的人),它不计算绝对框坐标,而是计算一组用于缩放预定义框的因素。

我们将在本系列文章中使用YOLO v2,它使用一个包含169个单元格(13 x 13)的网格,每个单元格包含5个边界框。这些共同提供了845个边界框,每个图像都由模型处理。

在深入了解YOLO的输出之前,让我们集中于第一步:将YOLO模型转换为Core ML格式。

寻找正确的模型

ONNX Model Zoo有许多可用的模型,尽管并不是全部都同样容易使用或转换,主要是由于缺乏文档。在几次尝试将YOLO v4v3转换失败后,我们选择了YOLO v2。那是一个有价值的教训:即使Core ML支持源ONNX模型声明的同一组操作(“opset”)版本,转换也可能失败。

所选模型在COCO数据集上进行了训练,该数据集包括80种不同类别的对象,例如人、狗、刀等。

ONNX转换为Core ML

将模型下载到存储在onnx_model_path变量中的路径后,我们可以加载它:

import os
import coremltools as ct
import onnx
import urllib

onnx_model_path = './models/yolov2-coco-9.onnx'

with open(onnx_model_path, 'rb') as f:
    model_onnx = onnx.load(f)

接下来,让我们检查模型的输入:

print(model_onnx.graph.input)

 

因此,输入节点的名称为input.1,它接受一个尺寸为(1, 3, 416, 416)的数组,该数组对应于一批3通道图像(RGB),每个图像分别为416 x 416像素。

ONNX Model Zoo页面上有关此特定模型的文档非常模糊。但是,由于YOLO v3v4的可用预处理代码会将输入值缩放到[0-1]范围,因此我们假定v2也是如此。现在,我们可以运行转换:

cml_model = ct.converters.onnx.convert(
    model=onnx_model_path,
    image_input_names=['input.1'],
    preprocessing_args={
        'image_scale': 1/255.0,
            'is_bgr': False
    },
    minimum_ios_deployment_target='13', 
)

确保为该image_input_names参数分配一个元素列表。如果您错过那里的方括号,一切似乎都可以正常工作,但是在预测过程中,由preprocessing_args参数定义的输入比例将被静默忽略。看起来似乎不多,但是确实如此。它弄乱了模型返回的结果,您可能需要花费很长时间才能找出问题出在哪里,并质疑世界的确定性。我们去过那里!

转换完成后,您应该在日志中看到一个确认:

我们可以保存转换后的模型,并查看其详细信息:

cml_model_path = './models/yolov2-coco-9.mlmodel'
cml_model.save(cml_model_path)
print(cml_model)

 

很好:输入是尺寸为416 x 416RGB图像。现在让我们快速检查是否可以将其用于预测。为此,我们需要将图像裁剪并缩放为416 x 416像素:

def load_and_scale_image(image_url):
    image = Image.open(urlopen(image_url))
    w,h = image.size
    min_dim = min(w,h)
    x0 = int((w - min_dim)/2)
    y0 = int((h - min_dim)/2)
    box = (x0, y0, x0 + min_dim, y0 + min_dim)
    return image.crop(box=box).resize((416,416))

image = load_and_scale_image('https://c2.staticflickr.com/4/3393/3436245648_c4f76c0a80_o.jpg')
pred = cml_model.predict(data={INPUT_NODE: image})

 

如您所见,模型的输出是数组形状的(1, 425, 13, 13)。第一个维度代表批次,最后两个维度代表我们上面提到的13 x 13 YOLO网格。但是每个单元格中的“425”值又如何呢?继续阅读本系列的下一篇文章以进行查找。

下一步

在本系列的下一篇文章中,我们将讨论如何将输出值转换为检测到的对象标签、置信度得分和相应的框。

https://www.codeproject.com/Articles/5286799/Converting-an-ONNX-Object-Detection-Model-to-iOS-C

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
要将YOLO的模型转换为权重pt文件转换ONNX格式,你需要按照以下步骤进行操作: 1. 首先,使用PyTorch将权重pt文件加载到模型中。 2. 然后,使用torch.onnx.export()函数将PyTorch模型转换ONNX模型。你需要指定输入张量的形状,并将输出的ONNX模型保存到磁盘上的一个文件中。 3. 接下来,你需要使用onnx2ncnn工具将ONNX模型转换为ncnn模型onnx2ncnn是一个开源的工具,它可以将ONNX模型转换为ncnn的二进制文件和参数文件。你需要在命令行中使用onnx2ncnn工具,并提供ONNX模型文件的路径以及输出ncnn模型文件的路径。 4. 在转换过程中,你需要注意指定模型的输入和输出张量的名称和形状。你可以在转换脚本或命令行中进行设置,确保输入和输出与原始模型的定义相匹配。 5. 最后,你可以将生成的ncnn模型部署到手机端(安卓、iOS)上进行推理和应用。 请注意,在进行模型转换的过程中,确保路径和文件名的正确性,并根据你自己的环境和需求进行相应的设置。 <span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [yolo的模型转换权重pt文件转onnx(1)](https://blog.csdn.net/m0_60657960/article/details/129404179)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [yolo的模型转换权重onnx文件转ncnn(2)](https://blog.csdn.net/m0_60657960/article/details/129405561)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值