1.pt转onnx
可查看我之前的文章:pt转onnx
2.paddlepaddle-gpu安装
推荐离线安装的方式;
版本声明:paddlepaddle_gpu-1.8.4.post107-cp37-cp37m-win_amd64.whl,表示cuda版本为10,python版本3.7;windows32位平台,cudnn为8.4;
2.0.2对应cuda11.1版本;
下载后执行pip install ***.whl
在线安装:pip install paddlepaddle_gpu -i https://mirrors.aliyun.com/pypi/simple/
安装成功;
测试:命令行依次输入
python
import paddle.fluid
paddle.fluid.install_check.run_check()
测试没问题后,接着安装x2paddle
命令行输入 pip install x2paddle;
3.将转换后的onnx进行paddlepaddle转换
功能一:推理模型转换
以下是相关命令;声明:当paddlepaddle在转换过程中提示no kernel image...异常时,即是你cuda版本和显卡不匹配;如rtx30显卡目前兼容性较差,可尝试安装paddlepaddle cpu版本解决该问题;
TensorFlow模型转换
x2paddle --framework=tensorflow --model=tf_model.pb --save_dir=pd_model
ONNX模型转换
x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model
Caffe模型转换
x2paddle --framework=caffe --prototxt=deploy.prototxt --weight=deploy.caffemodel --save_dir=pd_model
转换参数说明
参数 | 作用 |
---|---|
--framework | 源模型类型 (tensorflow、caffe、onnx) |
--prototxt | 当framework为caffe时,该参数指定caffe模型的proto文件路径 |
--weight | 当framework为caffe时,该参数指定caffe模型的参数文件路径 |
--save_dir | 指定转换后的模型保存目录路径 |
--model | 当framework为tensorflow/onnx时,该参数指定tensorflow的pb模型文件或onnx模型路径 |
--caffe_proto | [可选] 由caffe.proto编译成caffe_pb2.py文件的存放路径,当存在自定义Layer时使用,默认为None |
--define_input_shape | [可选] For TensorFlow, 当指定该参数时,强制用户输入每个Placeholder的shape,见文档Q2 |