💡💡💡本文摘要:本文提供了YOLOv8 pose关键点检测 c++部署方式,ONNX Runtime CUDA和cpu部署
💡💡💡ONNX Runtime优点:通用性好,速度较快,适合各个平台复制;
💡💡💡下图为ONNX Runtime CUDA推理结果,为订阅者提供部署源码
1. ONNX和Tensorrt区别
ONNX Runtime
是将 ONNX 模型部署到生产环境的跨平台高性能运行引擎,主要对模型图应用了大量的图优化,然后基于可用的特定于硬件的加速器将其划分为子图(并行处理)。
ONNX的官方网站:https://onnx.ai/
ONXX的GitHub地址:https: