![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
ONNX
文章平均质量分 60
favorxin
这个作者很懒,什么都没留下…
展开
-
ONNX与TensorRT的使用
ONNXRuntime/TensorRT1、利用TensortRT加速Tensorflow模型 主体思想:Tensorflow->TensorRT(pb->uff) 以TensorRT官方样例基于手写数字体MNIST数据集的Lenet5模型为例。 首先,下载MNIST数据集。 然后训练手写数字体识别模型Lenet5。 随后转换Lenet5.pb模型为Lenet5.uff模型。# 下载MNIST数据集cd <TensorRT Path>/data/mni原创 2021-08-31 17:30:59 · 2745 阅读 · 0 评论 -
PaddleOCR转ONNX模型(推理部分)
本文是继上一篇将PaddleOCR检测模型以及识别模型转为ONNX模型后,利用ONNX模型进行推理的代码篇,大部分代码也是出自PaddleOCR,本人只是调用一下。(一)导入包import osimport sysimport cv2import timeimport onnximport mathimport copyimport onnxruntimeimport numpy as npimport pyclipperfrom shapely.geometry import Po原创 2021-03-27 20:34:02 · 5640 阅读 · 23 评论 -
PaddleOCR转ONNX推理
1、环境:Windows10下PaddleOCR可以正常inference,然后转存为onnx模型进行推理加速。paddle:paddlepaddle-gpu=2.0.0rc1;paddle2onnx:paddle2onnx=0.5;onnx:onnx=1.8.0;onnxruntime:onnxruntime-gpu=1.6.0;cuda:cuda=10.1;cudnn:cudnn=7.6.5;这边onnxruntime-gpu需要安装cuda,onnxruntime就不需要,正常无需gp原创 2021-02-17 22:31:41 · 5761 阅读 · 19 评论