PaddleDetection2.5 ubuntu下docker下 Python Serving预测部署 学渣学习分享hhhhh
paddleserving提供了两个框架,一个是python pipeline 一个是c++ serving,前者是为了二次开发,后者是为了极致体验
但我没明白和我上一篇文章的区别hhhh
好啦好啦开始啦
和上一篇文章是一样的环境
安装Paddle Serving四个安装包的最新版本
分别是:paddle-serving-server(gpu11.2)
paddle-serving-client
paddle-serving-app
paddlepaddle(gpu11.2)
有个很奇怪的地方是我安装的paddleservingserver是gpu 但用不了显卡 而没有安装CPU版的却可以用cpu的命令 不理解
不能用gpu 所以需要用cpu命令 用cpu的话记得在配置文件中改成cpu 不然会报错
车辆检测这里是可以的:
python3 tools/export_model.py -c configs/ppvehicle/mot_ppyoloe_l_36e_ppvehicle.yml -o weights=https://paddledet.bj.bcebos.com/models/mot_ppyoloe_l_36e_ppvehicle.pdparams --export_serving_model=True(同上一篇文章)
启动服务端模型预测服务
python3 deploy/serving/python/web_service.py --model_dir output_inference/mot_ppyoloe_l_36e_ppvehicle &
结果:
启动客户端访问 http服务
python3 deploy/serving/python/pipeline_http_client.py --image_file 1.jpeg
结果:
不知道上一章问题出在哪
好啦好啦 记得评论哦 拜拜啦