Tensorflow GPU训练过程中遇到的问题总结

错误类型:CUDA_ERROE_OUT_OF_MEMORY

GPU的全部memory资源不能全部都申请,可以通过修改参数来解决:

在session定义前增加

config = tf.ConfigProto(allow_soft_placement=True)
#最多占gpu资源的70%
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.7)
#开始不会给tensorflow全部gpu资源 而是按需增加
config.gpu_options.allow_growth = True
sess = tf.Session(config=config)


当Host有多个GPU时,如何控制有多少个GPU在工作?

通过配置环境CUDA_VISIBLE_DEVICES来实现

在代码中:

os.environ["CUDA_VISIBLE_DEVICES"] = "2"

os.environ["CUDA_VISIBLE_DEVICES"] = 2

在命令行中:

CUDA_VISIBLE_DEVICES=0 python train.py  注意=号两边不能有空格



GPU训练一段时间之后,温度接近100度,然后罢工,提示GPU从总线上消失。


知道目前为止,也没有找到好的办法。


  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值