RuntimeError: Expected all tensors to be on the same device, but found at least two devices...

一、解决方案

        找出在cpu的tensor,然后把这些在cpu上的tensor转移到同一cuda上。

import torch

device = torch.device('cuda:0')    # 假如我使用的GPU为cuda:0
tensor.to(device)                  # 将tensor转移到cuda上

        以上是网上的解决方案,思路确实没错,但是上面的代码犯了一个小错,就是tensor.to(device)它会返回一个新的tensor地址,如果我们只是执行这行代码,那么tensor实际上还是在cpu上,因为我们没有保存转移到GPU上后的tensor地址。

         正确姿势

import torch

device = torch.device('cuda:0')    # 假如我使用的GPU为cuda:0
tensor = tensor.to(device)         # 将tensor转移到cuda上

二、参考

        RuntimeError: Expected all tensors to be on the same device...

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

飞机火车巴雷特

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值