video_onnxruntime目标检测算法模型

YoloV7

论文

YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors

模型结构

YOLOV7是2022年最新出现的一种YOLO系列目标检测模型,该模型的网络结构包括三个部分:input、backbone和head。

YOLOV7_02

算法原理

YOLOv7的作者提出了 Extended-ELAN (E-ELAN)结构。E-ELAN采用了ELAN类似的特征聚合和特征转移流程,仅在计算模块中采用了类似ShuffleNet的分组卷积、扩张模块和混洗模块,最终通过聚合模块融合特征。通过采 用这种方法可以获得更加多样的特征,同时提高参数的计算和利用效率。

YOLOV7_suanfa

环境配置

Docker(方法一)

拉取镜像:

docker pull image.sourcefind.cn:5000/dcu/admin/base/custom:tvm0.10_ort1.14.0_migraphx3.0.0-dtk23.04

创建并启动容器:

docker run --shm-size 16g --network=host --name=video_ort --privileged --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $PWD/video_ort:/home/video_ort -it <Your Image ID> /bin/bash

Dockerfile(方法二)

cd ./docker
docker build --no-cache -t video_ort:test .

docker run --shm-size 16g --network=host --name=video_ort --privileged --device=/dev/kfd --device=/dev/dri --group-add video --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v $PWD/video_ort:/home/video_ort -it <Your Image ID> /bin/bash

数据集

根据提供的视频文件,进行目标检测。

推理

编译工程

git clone https://developer.hpccube.com/codes/modelzoo/video_ort.git
cd video_ort
mkdir build
cd build
cmake ../
make

运行示例

./Video_Onnx
根据提示选择要运行的示例程序,运行解码卡示例需要提前安装并初始化解码卡。比如执行:

./Video_Onnx 0

运行CPU解码并运行YOLOV3推理示例程序

result

精度

应用场景

算法类别

目标检测

热点应用行业

监控,交通,教育

源码仓库及问题反馈

ModelZoo / Video_onnxruntime · GitLab

参考资料

GitHub - WongKinYiu/yolov7: Implementation of paper - YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

技术瘾君子1573

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值