目录
2.1 方法一:onnxruntime-gpu依赖于本地主机上cuda和cudnn
2.2 方法二:onnxruntime-gpu不依赖于本地主机上cuda和cudnn
2.2.1 举例:创建onnxruntime-gpu==1.14.1的conda环境
1. onnxruntime 安装
onnx 模型在 CPU 上进行推理,在conda环境中直接使用pip安装即可
pip install onnxruntime
2. onnxruntime-gpu 安装
想要 onnx 模型在 GPU 上加速推理,需要安装 onnxruntime-gpu 。有两种思路:
依赖于 本地主机 上已安装的 cuda 和 cudnn 版本
不依赖于 本地主机 上已安装的 cuda 和 cudnn 版本
要注意:onnxruntime-gpu, cuda, cudnn三者的版本要对应,否则会报错 或 不能使用GPU推理。
onnxruntime-gpu, cuda, cudnn版本对应关系详见: 官网