Keras/pytorch在训练时指定gpu以及多gpu训练

首先在终端输入命令nvidia-smi查看gpu运行状态

可见在服务器存在两台1080ti显卡,编号分别为0,1。在实际情况中选择一块无人使用的显卡进行训练最为合适。另外在训练过程中TensorFlow和Keras都是默认占满全部显存,多模型在一张卡训练时容易造成爆显存的情况,所以采用限制显存大小的方法。

import tensorflow as tf
import keras.backend.tensorflow_backend as KTF

config = tf.ConfigProto()
# 指定可见显卡
config.gpu_options.visible_device_list="1"
#不满显存, 自适应分配
config.gpu_options.allow_growth=True   
sess = tf.Session(config=config)
KTF.set_session(sess)

若要使用多块gpu训练,使用keras.utils.multi_gpu_model方法

在原来的model基础上使用multi_gpu_model函数指定一下gpu个数:

model =  multi_gpu_model(model, 2)

pytorch则是

if torch.cuda.device_count() > 1:
        model = nn.DataParallel(model)
model.to(device)

 

 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值