k210在使用mx-yolov3训练分类网络的时候出现Fatal: Layer Pad is not supported

mx-yolov3训练分类网络在进行转换的时候出现如下错误:
在这里插入图片描述

整了好久,以为是自己在训练的时候哪里弄错了,折腾了一天,最后在源码中的文档中找到了这个链接,这是一个垃圾分类的项目,用于部署到k210,最后在这篇文章中找到了这句话:

Eine Änderung an der Keras-Implementierung des MobileNet muss jedoch vorgenommen werden, weil diese in den Conv2D Layern padding=‘valid‘ verwendet, der nncase Compiler (derzeit) jedoch nur die Einstellung ‚same‘ ohne padding oder “valid” mit padding, also gleiche Layer Input- und Outputgrößen unterstützt (anschauliche Erläuterung von padding ‚same‘ und ‚valid‘:

意思就是:
但是,必须对MobileNet 的 Keras实现进行更改,因为它在 Conv2D 层中使用 padding = ‘valid’,而 nncase 编译器(当前)仅使用设置 ‘same’ 而不使用 padding 或“valid” with padding same支持层输入和输出大小

也就是在0.1.0版本的nncase不支持padding的方式,因此,使用nncase0.1.0版本就无法转换,最后报错pad格式错误,也就是上面的错误,因此,我使用0.2.0版本对其进行转换,发现就成功了,但是这里要注意,在使用0.2.0的nncase进行转换之后,我们必须更新固件,更新一个支持V4版本的固件才可以,但是当我将固件更新之后又出现了一个新的问题,那就是内存不足,总是在加载的时候会出现out memery的错误,这个问题我们需要使用到kpu.load_flash去从flash进行实时加图片,具体如何使用kpu.load_flash,大家可以参考maixpy的官方那个文档,里面有讲解。

但是要注意的是,在使用kpu.load_flash的时候,在v3版本我们不用去初始化其输出大小,但在v4版本的时候,我们需要使用kpu.set_outputs(task, 0, 1, 1, 1) #it is add for V4去初始化网络的输出,因为在v3版本中,他可以自动推断,而在v4版本中,则不能进行推断,具体可以参考这篇文章:链接

kpu.set_outputs:函数
函数原型:
本文在使用mx-yolov3进行训练,单独使用0.2.0nncase进行模型转换,最后加载模型到flash的0x300000地址处,上电开机boot代码为:

import sensor
import math
import machine
import lcd
import KPU as kpu

sensor.reset()
sensor.set_pixformat(sensor.RGB565)
sensor.set_framesize(sensor.QVGA)
sensor.run(1)
sensor.skip_frames(10)
sensor.set_windowing((224,224))
sensor.set_vflip(0)
lcd.init(freq=15000000,color=0x0000)
#KPU = kpu.load('/sd/weights.kmodel')
KPU = kpu.load_flash(0x300000,0,0,60000000)
f=open("classes.txt","r")
labels_txt=f.read()
labels = labels_txt.split(",")
f.close()
kpu.set_outputs(KPU,0,1,1,2) # 需要根据自己模型最后一层的输出进行对应数据填充,否则会报错,成功返回True
while True:
    img = sensor.snapshot()
    plist = kpu.forward(KPU,img)[:]
    pmax = max(plist)
    max_index = plist.index(pmax)
    pgoods = labels[max_index]
    print("No.{} is {}".format(pgoods, pmax))
    lcd.display(img)
    lcd.draw_string(48,224,"NO: {} {}{}".format(pgoods, round(pmax,2)*100,"%"),lcd.WHITE,lcd.GREEN)

运行结果如下:
在这里插入图片描述
因为使用的是load_flash,而且采用的是v4版本(据说大量矩阵运行在cpu上执行),因此速度相当之慢。

因此,并不建议mx-yolo训练分类,因为在测试中,使用maixpy的官方版本在分类任务中要快上许多。

  • 4
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
您好!针对Mx-yolov3模型训练K210模型使用,您可以按照以下步骤进行操作: 1. 准备数据集:首先,您需要准备一个包含标记好的目标边界框的数据集。确保每个图像文件都有对应的标签文件,标签文件的格式可以是YOLO格式或者其他常用格式,如Pascal VOC。 2. 配置Mx-yolov3模型:根据您的需求,您可以在MxNet中下载预训练yolov3模型,然后根据您的数据集和目标进行微调。您可以参考MxNet官方文档来了解如何配置和使用Mx-yolov3模型。 3. 数据增强和预处理:为了提高模型的泛化能力,您可以使用数据增强技术来扩充您的数据集。数据增强包括随机裁剪、缩放、旋转、翻转等操作。此外,还需要对输入图像进行预处理,例如归一化和调整大小。 4. 模型训练使用准备好的数据集和配置好的模型,您可以开始训练过程了。根据您的硬件资源和实际情况,可以选择在本地或者云端进行训练。通常情况下,训练过程需要花费一定的时间和资源。 5. 模型转换和部署:在训练完成后,您需要将模型转换为适用于K210芯片的格式。K210芯片使用的是KPU神经网络加速器,所以您需要将模型转换为KPU可以识别的格式。您可以使用K210提供的工具和库来进行模型转换和部署。 请注意,以上步骤仅为一般指导,具体操作可能因您的环境和需求而有所不同。建议您参考相关文档和教程,以获得更详细的指导和支持。祝您成功训练使用K210模型!如果您有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

思禾

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值