【Gradio】基于FastDeploy部署通用物体检测模型

一、项目前提

该项目默认已训练好一个目标检测模型,希望快速制作一个Demo进行体验。项目使用COCO通用物体检测模型,包括以下物品:

二、环境配置

由于项目使用的是飞桨BML Codelab新Notebook框架,所以我们只需要在左边工具栏中点击PaddleDatection进行下载。

下载好之后,取.pdparams文件

1.安装依赖

%cd PaddleDetection
# 安装依赖
!pip install -r requirements.txt --user
!python setup.py install --user

2.部署模型

# 导出部署模型
# 指定训练配置文件
# 指定训练好的模型文件
!python tools/export_model.py \
-c configs/ppyoloe/ppyoloe_plus_crn_l_80e_coco.yml \
-o weights=../ppyoloe_plus_crn_l_80e_coco.pdparams

3.FastDeploy验证

3.1 配置环境

# 安装相关包
!pip install numpy opencv-python fastdeploy-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html --user

3.2验证部署

# 验证部署是否正确
import cv2
import fastdeploy.vision as vision
model = vision.detection.PPYOLOE("/home/aistudio/PaddleDetection/output_inference/ppyoloe_plus_crn_l_80e_coco/model.pdmodel",
                                    "/home/aistudio/PaddleDetection/output_inference/ppyoloe_plus_crn_l_80e_coco/model.pdiparams", 
                                    "/home/aistudio/PaddleDetection/output_inference/ppyoloe_plus_crn_l_80e_coco/infer_cfg.yml", 
                                )
im = cv2.imread("/home/aistudio/mm.jpg")
result = model.predict(im)
vis_im = vision.vis_detection(im, result, score_threshold=0.5)
cv2.imwrite("/home/aistudio/work/result.png", vis_im)

三、准备launch文件夹

launch文件夹下应包含以下内容

>>cd ./launch/
├── demo.gradio.py
├── output_inference
│   ├── infer_cfg.yml      
│   ├── model.pdiparams
│   ├── model.pdiparams.info
│   ├── model.pdmodel
├── example.jpg
├── requirements.txt

1.Gradio文件

# 导入包
import gradio as gr
import cv2
import fastdeploy 
import fastdeploy.vision as vision

# 准备model
model = vision.detection.PPYOLOE("/home/aistudio/launch/output_inference/model.pdmodel",
"/home/aistudio/launch/output_inference/model.pdiparams", 
"/home/aistudio/launch/output_inference/infer_cfg.yml" )

# 图生图,输入为“image”,输出为“image”
def infer(image):
    result = model.predict(image)
    vis_im = vision.vis_detection(image, result,score_threshold=0.4)
    return vis_im

demo = gr.Interface(fn=infer, title="COCO数据集物体检测", inputs=gr.Image(), outputs="image",examples=["./test.jpg"], cache_examples=True, allow_flagging='never')
demo.launch()

四、Demo体验

体验地址:coco数据集物体检测_AI应用-飞桨AI Studio星河社区 (baidu.com)

五、附录

Gradio上线!手把手教你搭建在线AI应用:以视频字幕提取为例

FastDeploy_Paddle_Github

项目地址:【Gradio】基于FastDeploy部署通用物体检测模型 - 飞桨AI Studio星河社区 (baidu.com)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
引用\[1\]:ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,可以在消费级的显卡上进行本地部署。为了方便测试,可以在Linux服务器上进行部署,提供WebUI界面、命令行方式和API调用的方式供使用。\[1\] 引用\[2\]:要在服务器上部署Gradio问答系统,首先需要使用Anaconda创建虚拟环境,并使用pip安装所需的依赖库,包括transformers、fastapi和uvicorn。其中,transformers库的版本推荐为4.26.1,但不低于4.23.1即可。\[2\] 引用\[3\]:部署完成后,可以通过Gradio提供的API进行问答系统的调用。调用API时,可以向服务器发送一个问题,然后服务器会返回一个包含回答的JSON格式的响应。\[3\] 综上所述,要将Gradio问答系统部署到服务器中,首先需要在服务器上创建虚拟环境并安装所需的依赖库,然后使用Gradio提供的API进行调用。这样就可以在服务器上使用Gradio问答系统进行问答了。 #### 引用[.reference_title] - *1* *2* *3* [chatgpt平替,清华chatglm本地化部署教程(aigc大模型风口,校招找工作必备),包含weiui部署,api部署,...](https://blog.csdn.net/weixin_43228814/article/details/129915459)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Derek__Robbie

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值