tensorflow卷积报错Failed to get convolution algorithm. This is probably because cuDNN failed t

tensorflow卷积报错Failed to get convolution algorithm. This is probably because cuDNN failed t

说明:环境是tensorflow,测试GPU没有问题。

在tensorflow2.0和tensorflow1.15我都有遇到这个错误,主要是显卡内存分配问题。

但在运行模型出现错误。

UnknownError: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above. [Op:Conv2D]

解决方法添加下面两行

import os

os.environ['CUDA_VISIBLE_DEVICES'] = '/gpu:0'  # 运行程序,都会占用gpu0全部资源

# 多个GPU时,如果运行只使用了一个的话,可以设置为‘/gpu:0,1’等等

# 另一种写法
os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID' # 按照PCI_BUS_ID顺序从0开始排列GPU设备
os.environ['CUDA_VISIBLE_DEVICES'] = "0,1" #设置当前使用的GPU设备为0,1号两个设备,名称依次为'/gpu:0'、'/gpu:1'。
#[0,1]和[1,0]排列的设备是不同的,排在前面的设备优先级高,运行程序的时候会优先使用。

其他一些解答(我测试没有成功,但可能是我遇到的情况不一致)

1.矛头指向了是因为显存分配没搞好造成的

解决代码

import tensorflow as tf
config = tf.compat.v1.ConfigProto(allow_soft_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.8
tf.compat.v1.keras.backend.set_session(tf.compat.v1.Session(config=config))

来分析一下这段代码以及问题原因:
众所周知,keras以TensorFlow做后台时,TensorFlow会默认吃掉所有可用的显存(即便此时没有用到做计算,这些显存也会显示占用来待命)

第二行的0.3,意思是限制每个模型只能分配30%的显存,不允许吃掉所有。当然这是理论值,当实际开始计算时,如果需要,依然可以超出这个理论值。

2 也是说显卡内存分配问题
from tensorflow.compat.v1 import ConfigProto
from tensorflow.compat.v1 import InteractiveSession

config = ConfigProto()
config.gpu_options.allow_growth = True
session = InteractiveSession(config=config)

这个设置为按需分配

  • 11
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值