yolov2模型导入keras方法及问题

yolov2模型导入keras方法及问题

yolo是基于darknet框架开发、训练的模型,如果想通过keras进行使用,
需要进行模型数据的转换

===============part 1======================
参考:
在Python 3中使用YOLOv2
https://www.jianshu.com/p/3e77cefeb49b
https://www.jianshu.com/p/86be0b809951
https://blog.csdn.net/sinat_21591675/article/details/82596640

我们目前主要是使用yad2k这个开源的实现来进行转换
他有一些限制,该项目使用了keras,tensorflow作为后端,以及其它一些库(常规安装即可)
而且只能转换yolov2(也叫YOLO9000)
必须注意的地方:
1. tensorflow可以是gpu版本,也可以是cpu版本,具体查看方法:pip list

2. keras必须和tf版本一致,版本对应参考:https://docs.floydhub.com/guides/environments/
   我们带gpu的PC使用的是tf 1.9,所以keras需要下载2.2.0,即pip install keras==2.2.0
   TensorFlow 1.9   tensorflow-1.9  TensorFlow 1.9.0 + Keras 2.2.0 on Python 3.6.   floydhub/tensorflow TensorFlow-1.9

   不带GPU的PC使用tf 1.13版本,keras使用2.2.4
   TensorFlow 1.13  tensorflow-1.13 TensorFlow 1.13.0 + Keras 2.2.4 on Python 3.6.  floydhub/tensorflow TensorFlow-1.13
   python解释器版本不用完全一致,差别不大即可
   安装好keras后,在python中导入测试一下,如果没有问题,说明keras和当前版本的tf可以正常工作

以下是常见的一个keras和tf不匹配的报错
module 'tensorflow.python.keras.backend' has no attribute 'get_graph'

另外,由于tensorflow版本(gpu、cpu)、keras版本等差异,因此网上下载的别人生成的yolo.h5文件自己未必能正常使用,
典型的现象就是使用keras导入模型时,会导致python崩溃
例如,我们用tf-gpu-1.9 &#
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 可能是您的CUDA和cuDNN版本不兼容,或者您的显卡驱动不支持CUDA。请检查您的CUDA和cuDNN版本是否与TensorRT所需的版本匹配,并确保您的显卡驱动支持CUDA。如果您是使用Docker容器进行开发,请确保容器的CUDA和cuDNN版本与您的系统相匹配。此外,您还可以尝试更新TensorRT和CUDA到最新版本。 ### 回答2: 当您在使用Python的TensorFlow库时,如果您已安装好GPU驱动程序并正确配置了CUDA和cuDNN,则使用GPU进行模型编译应该是可行的。但是,当您尝试使用CompiledModel的compile_model()方法时却出现错误,可能有以下几个原因: 1. Tensorflow版本不兼容:请确保您安装的TensorFlow版本与使用的编译模型方法兼容。某些方法在较旧版本的TensorFlow中可能不可用。 2. 缺少依赖库:TensorFlow的GPU版本需要CUDA和cuDNN作为后端支持。请确认您的系统中是否正确安装了这些依赖库,并且版本与您所使用的TensorFlow版本是兼容的。 3. GPU驱动问题:检查您的GPU驱动程序是否正确安装,并且与您所使用的CUDA版本兼容。您可以通过运行nvidia-smi命令来查看您的GPU驱动程序和CUDA版本。 4. GPU资源不足:如果您的GPU资源被其他程序或进程占用,可能会导致编译模型时出现错误。请确保您的GPU资源可用并且没有被其他任务占用。 5. 模型文件问题:检查您要编译的模型文件是否存在并且正确。如果文件路径有误或者模型文件损坏,编译模型方法将无法运行。 如果您在检查以上问题后仍然无法解决错误,请尝试在TensorFlow的官方论坛或GitHub页面上提问,以获取更专业的技术支持。同时,提供详细的错误信息和相关代码也有助于他人更好地理解问题并提供解决方案。 ### 回答3: 当安装好GPU但是在调用`core.compile_model()`函数,并传入参数`"GPU"`时,报错可能是由以下原因引起的: 1. GPU设备未正确安装:首先应确保已正确安装并配置了GPU设备驱动和运行环境。可以确认GPU驱动是否正确安装以及是否支持所使用的GPU型号。 2. 缺少相关依赖库:在使用GPU进行编译模型之前,确保已正确安装了相关的GPU依赖库和框架,如CUDA、cuDNN等。可以检查是否正确安装这些依赖库,并确保版本与所使用的GPU驱动兼容。 3. 模型文件格式不支持GPU编译:某些模型文件可能不支持直接在GPU上编译,需要转换为支持GPU编译的格式。可以尝试将模型文件转换为支持GPU编译的格式,如ONNX、TensorRT等。 4. 编译模型参数错误:编译模型时,可能传入了不正确或不支持的参数。可以确认参数是否正确传入,并参考相关文档或示例代码确定正确的参数选项。 综上所述,当已安装好GPU但在调用`core.compile_model()`函数报错时,需要确认GPU设备是否正确安装、相关依赖库是否完整、模型文件是否支持GPU编译以及编译参数是否正确。根据具体情况进行排查和调试,以解决报错问题

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值