keras 使用多GPU

首先我们查看一下服务器GPU的配置

nvidia-smi

    可以看到,我们由块显卡,实验中为了避免不同使用者的资源竞争,我们需要指定适用哪块GPU来实验。

   我使用的是Python,在代码开始部分加入:

import os

os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID"   

os.environ["CUDA_VISIBLE_DEVICES"]="0"

引自

https://blog.csdn.net/Together_CZ/article/details/79886982?utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~all~first_rank_v2~rank_v25-2-79886982.nonecase&utm_term=keras%20%E4%BD%BF%E7%94%A8cuda%E8%AE%AD%E7%BB%83

keras 使用多GPU

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "2,3"

没有指定keras默认会选择所有的GPU,如果你并没有配置多GPU的训练,那么实际上keras占了所有的GPU但是实际上只在一个GPU上运行。

第二步,就是调用多GPU函数,multi_gpu_model,第一个参数是你的模型,第二个是使用GPU的数量。model泛指一个keras的模型。

model = KerasNet()
par_model = keras.utils.multi_gpu_model(model, gpus=2)

https://blog.csdn.net/diyong3604/article/details/101184216?utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~all~first_rank_v2~rank_v25-16-101184216.nonecase&utm_term=keras%20%E4%BD%BF%E7%94%A8cuda%E8%AE%AD%E7%BB%83

 

 

https://blog.csdn.net/limiyudianzi/article/details/88828390?utm_medium=distribute.pc_aggpage_search_result.none-task-blog-2~all~first_rank_v2~rank_v25-15-88828390.nonecase&utm_term=keras%20%E4%BD%BF%E7%94%A8cuda%E8%AE%AD%E7%BB%83

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值