torch 指定显卡

1. 代码中指定

import os 
os.environ['CUDA_VISIBLE_DEVICES'] = gpu_ids 

2. shell中指定

export CUDA_VISIBLE_DEVICES=gpu_ids && python3 train.py

3. 模型/参数中指定

model.cuda(gpu_id) # gpu_id为int类型变量,只能指定一张显卡
model.cuda('cuda:'+str(gpu_ids)) #输入参数为str类型,可指定多张显卡
model.cuda('cuda:1,2') #指定多张显卡的一个示例

model.cuda(1)
loss.cuda(1)
tensor.cuda(1)

torch.cuda.set_device(gpu_id) #单卡
torch.cuda.set_device('cuda:'+str(gpu_ids)) #可指定多卡

torch.cuda.set_device()的优先级低:如果model.cuda()中指定了参数,那么torch.cuda.set_device()会失效,而且pytorch的官方文档中明确说明,不建议用户使用该方法。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
GPU版本的torch是指针对GPU加速的版本,可以在GPU上运行深度学习代码。安装GPU版本的torch需要先安装CUDA和cuDNN。可以按照以下步骤进行安装: 1. 首先,确保你的显卡支持CUDA,并且已经安装了相应的显卡驱动程序。 2. 下载并安装CUDA Toolkit,选择与你的显卡驱动程序兼容的版本。 3. 下载并安装cuDNN,它是一个用于深度神经网络的GPU加速库。确保选择与你的CUDA版本兼容的cuDNN版本。 4. 下载并安装GPU版本的pyTorch。你可以使用pip命令来安装,例如:pip install torch torchvision。 安装完成后,你就可以在代码中导入torch并使用GPU进行加速了。你可以使用torch.cuda.is_available()检查GPU是否可用,使用torch.cuda.get_device_name()来查看设备名称。如果GPU可用,你可以通过将Tensor指定GPU设备来在GPU上创建和操作Tensor。同时,你还可以使用torch.cuda.memory_allocated()和torch.cuda.max_memory_allocated()等函数来查看内存和显存的使用情况。 总结起来,安装GPU版本的torch需要先安装CUDA和cuDNN,然后通过pip安装GPU版本的pyTorch。安装完成后,你可以在代码中使用GPU进行加速操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Cuda 和 GPUtorch安装最全攻略,以及在GPU 上运行 torch代码](https://blog.csdn.net/weixin_46833029/article/details/127946022)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值