- 官方这样说道
- 如果是tensorflow、cntk作为后端,那么会自动检测
- theano可以手动设置
但是我这的速度,让人怀疑并没有运行在gpu上(一张图,运行时间近10秒)
-
尝试运行时指定
CUDA_VISIBLE_DEVICES=0 python demo.py
运行时间无变化 -
显式设置backend
import keras.backend.tensorflow_backend as KTFimport keras.backend.tensorflow_backend as KTF
运行时间无变化 -
tensorflow日志级别控制
impot os
os.environ["TF_CPP_MIN_LOG_LEVEL"] = "2"
"""
TF_CPP_MIN_LOG_LEVEL = 1 //默认设置,为显示所有信息
2 //只显示error和warining信息
3 //只显示error信息
"""
- 设置使用GPU的百分比(未实践)
import tensorflow as tf
import keras.backend.tensorflow_backend as KTF
# 配置每个gpu可以使用的最高比例(百分比)
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
sess = tf.Session(config=config)
KTF.set_session(sess)
需要注意的是,虽然代码或配置层面设置了对显存占用百分比阈值,但在实际运行中如果达到了这个阈值,程序有需要的话还是会突破这个阈值。换而言之如果跑在一个大数据集上还是会用到更多的显存。以上的显存限制仅仅为了在跑小数据集时避免对显存的浪费而已。
摘自: CSDN : _silent彦沁
6. gpu按需使用
import os
import tensorflow as tf
import keras.backend.tensorflow_backend as KTF
# 指定第一块GPU可用
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
KTF.set_session(sess)
- 暂时屏蔽warning:
在linux终端中输入命令:export TF_CPP_MIN_LOG_LEVEL=2,当该终端关闭,既失效; - 永久屏蔽warning:
修改/etc/profile文件,在该文件中加入export TF_CPP_MIN_LOG_LEVEL=2,但是修改后需要重启
系统或者使用source /etc/profile命令,使修改后的profile文件生效。
7、8 参考自
CSDN :抓不住的流年