tensorflow-serving布置facenet心得

这个的东西困扰我很久,终于弄成了。不知道我做的是不是太繁琐,如果有人做的更简单,希望指出,谢谢。

docker中,目前有一个容器。mtcnn其中包括:pnet,rnet和onet,这三个是要布置在一起,其中加入了reshape操作。

没学明白之前,一直以为多模型之间有什么联系。现在明白了。下面是一个多用户单模型的配置文件。

model_config_list:{
    config:{
      name:"pnet",
      base_path:"/models/facenet",
      model_platform:"tensorflow"
    },
    config:{
      name:"rnet",
      base_path:"/models/facenet",
      model_platform:"tensorflow"
    },
	   config:{
      name:"onet",
      base_path:"/models/facenet",
      model_platform:"tensorflow"
    },
    config:{
      name:"classify",
      base_path:"/models/facenet",
      model_platform:"tensorflow"
    },
}

如果实际应用可能要多用户多模.

流程

假设环境你都布置完了

  1. 转化模型成servedmodel类型。
  2. 写配置文件
  3. 发布模型
  4. 绑定固定ip

注意

不要用rest这个接口(也就是8501),需要把numpy转化json类型。浪费时间.

可以在线更新配置文件,不用停下来。

还有就是更新模型的问题。

--------------

mtcnn的三个模型,在预测时候,可以放到一个graph中,输入为三个尺寸的图像,输出为9个预测接结果(每个net有3个结果)。

我想这个融合应该预测速度更快。pnet和rnet的分类是用不到的。这里可以不给出来。也就是只有7个输出。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

颐水风华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值