yolov9 瑞芯微芯片rknn部署、地平线芯片Horizon部署、TensorRT部署

本文介绍了作者如何基于官方开源的yolov9代码进行模型训练,如何将模型导出为ONNX格式并解决兼容性问题,以及在PyTorch、TensorRT和RKNN板端的测试效果和时耗比较。
摘要由CSDN通过智能技术生成

  特别说明:参考官方开源的yolov9代码、瑞芯微官方文档、地平线的官方文档,如有侵权告知删,谢谢。

  模型和完整仿真测试代码,放在github上参考链接 模型和代码

  之前写过yolov8检测、分割、关键点模型的部署的多篇博文,yolov8还没玩溜,这不yolov9又来了。yolov9刚出来两三天,有朋友就问:yolov9都出来好几天了,怎么没有见到你写一篇部署博客呢。其实yolov9出来两三天,说实话还是通过朋友告知才知道的。一直想抽时间把yolov9部署给盘一下,奈何一拖就又是好几天,这两天抽时间终于把这个yolov9给盘完了。

1 模型和训练

  训练代码参考官方开源的yolov9训练代码,考虑到有些板端对SiLU的支持有限,本示例训练前把激活函数SiLU替换成了ReLU,训练使用的模型配置文件是yolov9.yaml,输入分辨率640x640。用 from thop import profile 统计的模型计算量和参数 Flops: 120081612800.0(120G),Params: 55388336.0(55M)

2 导出 yolov9 onnx

  导出onnx时需要修改两个地方。

  特别说明:只在导出onnx时修改,训练时无需修改,修改以下代码后运行会报错,但是可以生成onnx文件,无需关注报错。

   第一个处:增加以下代码(红色框内新增):
在这里插入图片描述

        reslut = []
        for i in range(self.nl):
            reslut.append(self.cv2[i](x[i]))
            reslut.append(self.cv3[i](x[i]))
        return reslut

第二处修改:增加以下代码(红色框内新增)
在这里插入图片描述

class CBFuse(nn.Module):
    def __init__(self, idx):
        super(CBFuse, self).__init__()
        self.idx = idx

    def forward(self, xs):
        target_size = xs[-1].shape[2:]

        if target_size[0] < 10:
            res = [F.interpolate(x[self.idx[i]], size=target_size, mode='nearest') for i, x in enumerate(xs[:-1])]
            out = torch.sum(torch.stack(res + xs[-1:]), dim=0)
            return out
        j = 0
        for i, x in enumerate(xs[:-1]):
            j = i
            if target_size[0] < 10:
                continue
            if i == 0:
                x0 = F.interpolate(x[self.idx[i]], size=target_size, mode='nearest')
            if i == 1:
                x1 = F.interpolate(x[self.idx[i]], size=target_size, mode='nearest')
            if i == 2:
                x2 = F.interpolate(x[self.idx[i]], size=target_size, mode='nearest')

        if j == 2 and target_size[0] > 10:
            out = x0 + x1 + x2 + xs[-1:][0]
            return out
        if j == 1 and target_size[0] > 10:
            out = x0 + x1 + xs[-1:][0]
            return out
        if j == 0 and target_size[0] > 10:
            out = x0 + xs[-1:][0]
            return out

        res = [F.interpolate(x[self.idx[i]], size=target_size, mode='nearest') for i, x in enumerate(xs[:-1])]
        out = torch.sum(torch.stack(res + xs[-1:]), dim=0)
        return out

最后:增加保存onnx文件代码
在这里插入图片描述

    print(torch.onnx.ir_version)
    print("===========  onnx =========== ")
    dummy_input0 = torch.randn(1, 3, 640, 640)
    input_names = ["data"]
    output_names = ["output1", "output2", "output3", "output4", "output5", "output6"]
    torch.onnx.export(model, (dummy_input0), "./test_onnx/yolov9_relu_80class.onnx", verbose=True, input_names=input_names, output_names=output_names, opset_version=12)
    print("======================== convert onnx Finished! .... ")

3 yolov9 测试效果

pytorhc测试效果
在这里插入图片描述

onnx测试效果(确保修改CBFuse后导出的onnx测试结果和pytorch是一致的)
在这里插入图片描述

4 tensorRT 时耗

  模型训练使用的配置文件是yolov9.yaml,输入分辨率是640x640,转trt使用的fp16_mode,显卡Tesla V100,cuda_11.0。
在这里插入图片描述

5 rknn 板端C++部署

  模型训练使用的配置文件是yolov9.yaml,输入分辨率是640x640,芯片rk3588.

  把在rk3588板子上测试的模特推理时耗,和用C++代码写的后处理时耗,都给贴出来供大家参考。【rk3588的C++代码参考链接】
在这里插入图片描述

评论 18
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值