pytorch模型可以转为onnx模型,转变后的onnx模型要如何在jetson TX2中使用呢?
1.jetson中运行onnx模型
https://developer.nvidia.com/blog/announcing-onnx-runtime-for-jetson/在这里插入图片描述
https://github.com/Azure-Samples/onnxruntime-iot-edge/blob/master/README-ONNXRUNTIME-arm64.md
相关的视频:https://github.com/toolboc/Intelligent-Video-Analytics-with-NVIDIA-Jetson-and-Microsoft-Azure
一些api: https://docs.nvidia.com/deeplearning/tensorrt/polygraphy/docs/backend/onnx/loader.html
https://zhuanlan.zhihu.com/p/377699417
查看jetpack版本
先查看l4t的版本(head -n 1 /etc/nv_tegra_release),然后根据对应关系(https://developer.nvidia.com/embedded/jetpack-archive)得到jetpack版本
或者参考这个:
onnx版本 https://elinux.org/Jetson_Zoo#ONNX_Runtime
根据onnx的需求,需要jetpack4.4的版本及以上,所以jetpack需要刷机。
2.TensorRT+onnx
https://blog.csdn.net/qq_36124767/article/details/68484092