前言
最近跑模型用服务器用的十分频繁,没注意把GPU显存全占完了,结果师兄的项目跑不起来了。愧对师兄,于是刚刚调整了一下tensorflow GPU训练显存的占比。贴一下方法,以后能用上。
方法
使用GPU加速训练时,tensorflow会默认申请分配所有的GPU资源,这就会导致同样使用显存的项目互相冲突跑不起来,所以可以做如下配置。其实我发现跑模型GPU占用70%的速度和100% emmmmm貌似真的看不出来有啥区别。
import tensorflow as tf
import os
#指定使用哪块GPU训练
os.environ["CUDA_VISIBLE_DEVICES"]='0'
config=tf.ConfigProto()
#设置最大占有GPU不超过显存的70%
config.gpu_options.per_process_gpu_memory_fraction=0.7
#重点:设置动态分配GPU
config.gpu_options.allow_growth=True