tensorflow 动态分配内存以及设置使用那块gpu的方法

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/tech_chenlongzhen/article/details/79114906

动态内存

config = tf.ConfigProto()  
config.gpu_options.allow_growth=True  
sess = tf.Session(config=config)

如何控制GPU资源率


(参考:http://blog.csdn.net/u012436149/article/details/53837651)

allow growth

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)
使用allow_growth option,刚一开始分配少量的GPU容量,然后按需慢慢的增加,由于不会释放内存,所以会导致碎片
per_process_gpu_memory_fraction

gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.7)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config, ...)
设置每个GPU应该拿出多少容量给进程使用,0.4代表 40%

控制使用哪块GPU卡

控制方式
~/ CUDA_VISIBLE_DEVICES=0  python your.py#使用GPU0
~/ CUDA_VISIBLE_DEVICES=0,1 python your.py#使用GPU0,1
注意单词不要打错

reference

http://blog.csdn.net/sunwuhuang1/article/details/53946462
展开阅读全文

没有更多推荐了,返回首页