pytorch数据选择CPU或者GPU

pytorch中.to(device) 和.cuda()的区别说明

原理

.to(device) 可以指定CPU 或者GPU

1

2

3

4

5

6

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # 单GPU或者CPU

model.to(device)

#如果是多GPU

if torch.cuda.device_count() > 1:

  model = nn.DataParallel(model,device_ids=[0,1,2])

model.to(device)

.cuda() 只能指定GPU

1

2

3

4

5

6

7

8

9

#指定某个GPU

os.environ['CUDA_VISIBLE_DEVICE']='1'

model.cuda()

#如果是多GPU

os.environment['CUDA_VISIBLE_DEVICES'] = '0,1,2,3'

device_ids = [0,1,2,3]

net  = torch.nn.Dataparallel(net, device_ids =device_ids)

net  = torch.nn.Dataparallel(net) # 默认使用所有的device_ids

net = net.cuda()

采用.cuda的形式那么我们必须事先通过系统内部函数os.environment['CUDA_VISIBLE_DEVICES']

获取到系统的GPU

1

2

3

4

5

6

7

8

9

10

11

12

13

class DataParallel(Module):

    def __init__(self, module, device_ids=None, output_device=None, dim=0):

        super(DataParallel, self).__init__()

        if not torch.cuda.is_available():

            self.module = module

            self.device_ids = []

            return

        if device_ids is None:

            device_ids = list(range(torch.cuda.device_count()))

        if output_device is None:

            output_device = device_ids[0]

补充:Pytorch使用To方法编写代码在不同设备(CUDA/CPU)上兼容(device-agnostic)

以前版本的PyTorch编写device-agnostic代码非常困难(即,在不修改代码的情况下在CUDA可以使用或者只能使用CPU的设备上运行)。

PyTorch 0.4.0使代码兼容

PyTorch 0.4.0通过两种方法使代码兼容变得非常容易:

张量的device属性为所有张量提供了torch.device设备。(注意:get_device仅适用于CUDA张量)

to方法Tensors和Modules可用于容易地将对象移动到不同的设备(代替以前的cpu()或cuda()方法)

我们推荐以下模式:

1

2

3

4

5

6

7

# 开始脚本,创建一个张量

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

...

# 但是无论你获得一个新的Tensor或者Module

# 如果他们已经在目标设备上则不会执行复制操作

input = data.to(device)

model = MyModule(...).to(device)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyTorch-Mutex的CPUGPU版本之间的区别在于它们使用的锁的类型不同。CPU版本使用Python标准库中的threading.Lock来实现互斥锁,而GPU版本使用PyTorch中的torch.cuda.Lock来实现互斥锁。 因此,如果您的PyTorch模型是在CPU上训练的,则应该使用CPU版本的PyTorch-Mutex;如果您的PyTorch模型是在GPU上训练的,则应该使用GPU版本的PyTorch-Mutex。 以下是使用CPU版本的PyTorch-Mutex的示例代码: ``` from torch_mutex import Mutex mutex = Mutex() for epoch in range(num_epochs): for batch in data_loader: # 加锁 mutex.acquire() # 计算模型输出 output = model(batch) loss = loss_fn(output, target) # 更新模型参数 optimizer.zero_grad() loss.backward() optimizer.step() # 解锁 mutex.release() ``` 以下是使用GPU版本的PyTorch-Mutex的示例代码: ``` import torch from torch_mutex import Mutex mutex = Mutex() for epoch in range(num_epochs): for batch in data_loader: # 加锁 mutex.acquire() # 将输入和目标数据移动到GPU上 input = batch[0].cuda() target = batch[1].cuda() # 计算模型输出 output = model(input) loss = loss_fn(output, target) # 更新模型参数 optimizer.zero_grad() loss.backward() optimizer.step() # 解锁 mutex.release() ``` 在上面的代码中,我们在使用GPU版本的PyTorch-Mutex时,首先需要将输入和目标数据移动到GPU上。然后,在访问共享资源之前,我们调用mutex.acquire()方法来获取互斥锁。最后,在访问共享资源之后,我们调用mutex.release()方法来释放互斥锁。这样,我们就可以避免多个GPU核心同时访问共享资源,从而确保训练过程的正确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值