本文简介
本文介绍如何在服务器使用 TensorFlow 模型搭建API计算服务。
使用环境 :
- AlmaLinux
- 宝塔
- 宝塔插件 :
- Python 项目管理器2.1
- 进程守护管理器 2.4
- Python 3.8
- Nginx
使用模型
- TensorFlow Lite MoveNet Lightning
在树莓派上或者本地环境尝试
官方提供了可供树莓派运行的 Example :
https://github.com/tensorflow/examples/tree/master/lite/examples/pose_estimation/raspberry_pi
我们需要在这里下载源码到你的电脑,并且CD到该目录。
运行 pose_estimation.py
。该文件会打开你的摄像头并且实时进行状态估计。
在该过程中你可能会遇到包不存在的问题。你需要下载需要的包。
你还有可能会遇到找不到模型等问题。
你还有可能会出现 !
命令不合适的问题,所以我建议你到我仓库中获取 MoveNetLite 源码 。
我对不用和必要的东西做了适配。
在我仓库中已经下载模型到本地了,可以避免找不到模型,或者因为模型被墙的原因载入模型失败的问题。
https://github.com/MR-XieXuan/MiraiTravel-plugin-moveNet/tree/main/otherDepend
如果你是树莓派,那么更需要把模型载入到本地。避免在树莓派上下载。
成功后迁移到服务器。
https://github.com/MR-XieXuan/MiraiTravel-plugin-moveNet/tree/main/otherDepend
在该仓库使用 TensorflowLite 与 TensorFlowHub 做了网络接口,提供访问后姿态估计本地图片,并把姿态估计结果输出到本地。
在服务器上运行 app.py 即可。
用Nginx反向代理
为避免重复写同一个东西而导致网络文章重复。所以我引入别人的博客:
你需要把你的域名反向代理到本地的另一个端口。也就是Python的服务端口。
https://zhuanlan.zhihu.com/p/108740468