tensorflow转换ckpt为savermodel模型

看这篇文章https://blog.csdn.net/zmlovelx/article/details/100511406,我对着怎么运行都是失败的。

首先看把自己训练好的ckpt模型转换为savermodel(tf1环境下)

object_detection>python export_inference_graph.py  \
--input_type image_tensor  \
--pipeline_config_path  ..\image\ssdlite_mobiledet_cpu_320x320_coco_sync_4x4.config  \
--trained_checkpoint_prefix  ..\image\model.ckpt-3369   \    #这是自己做迁移训练好的模型
--output_directory  ..\coco_models\my_ssdlite_mobiledets   #存放路径

   既然自己训练的ckpt模型可以转,那我直接下载的ckpt模型也可以一样的转:

object_detection>python export_inference_graph.py
--input_type  image_tensor   
--pipeline_config_path  samples\configs\ssdlite_mobiledet_cpu_320x320_coco_sync_4x4.config 
--trained_checkpoint_prefix ..\coco_models\ssdlite_mobiledet_cpu_320x320_coco_2020_05_19\model.ckpt  #这是下载的模型
--output_directory ..\coco_models\ssdlite_mobiledet_cpu_savemodel  #存放地址

注意两处.config也不一致


 好奇妙,有时又不行了。在下载的模型文件夹中添加一个checkpoint文件

执行以下:

python export_inference_graph.py   --input_type image_tensor   --pipeline_config_path   samples\configs\ssdlite_mobiledet_cpu_320x320_coco_sync_4x4.config  --trained_checkpoint_prefix  ..\coco_models\ssdlite_mobiledet_cpu_320x320_coco_2020_05_19\model.ckpt --output_directory  ..\coco_models\ssdlite_mobiledet_cpu_savemodel

运行成了 如图

在tf2环境下测试,看到这结果 我tm又懵了!

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值