tensorflow中使用tf.ConfigProto()配置Session运行参数&&GPU设备指定

tf.ConfigProto一般用在创建session的时候。用来对session进行参数配置

config = tf.ConfigProto(log_device_placement=True, allow_soft_placement=True)

""" 
参数说明:
log_device_placement: 
设置tf.ConfigProto()中参数log_device_placement = True ,可以获取到operations 和 Tensor 
被指派到哪个设备(几号CPU或几号GPU)上运行,会在终端打印出各项操作是在哪个设备上运行的。

allow_soft_placement:
在tf中,通过命令 "with tf.device('/cpu:0'):",允许手动设置操作运行的设备。如果手动设置的设备
不存在或者不可用,就会导致tf程序等待或异常,为了防止这种情况,可以设置tf.ConfigProto()中参数
allow_soft_placement=True,允许tf自动选择一个存在并且可用的设备来运行操作。
"""
控制tf资源的使用

为了加快运行效率,TensorFlow在初始化时会尝试分配所有可用的GPU显存资源给自己,这在多人使用的服务器上工作就会导致GPU占用,别人无法使用GPU工作的情况。
tf 提供了两种控制GPU资源使用的方法,一是让TensorFlow在运行过程中动态申请显存,需要多少就申请多少; 第二种方式就是限制GPU的使用率。

一、动态申请显存

# allow growth
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)
# 使用allow_growth = True,刚一开始分配少量的GPU容量,然后按需慢慢的增加,由于不会释放所以有碎片

二、限制GPU使用率

# per_process_gpu_memory_fraction
gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config, ...)
#设置每个GPU应该拿出多少容量给进程使用,0.4代表 40%

或者

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4  #占用40%显存
session = tf.Session(config=config)
控制使用哪块GPU
~/ CUDA_VISIBLE_DEVICES=0  python your.py    #使用GPU0
~/ CUDA_VISIBLE_DEVICES=0,1 python your.py   #使用GPU0,1
#注意单词不要打错

#或者在 程序开头
os.environ['CUDA_VISIBLE_DEVICES'] = '0' #使用 GPU 0
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 使用 GPU 0,1

参考:https://blog.csdn.net/dcrmg/article/details/79091941
https://blog.csdn.net/u012436149/article/details/53837651

  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值