1查看是否GPU可以使用:
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
查看GPU数量:torch.cuda.device_count()
data.cuda(),model.cuda()表示把数据和模型?
.cuda()默认使用第一张显卡进行操作;
位于不同显卡上的数据是不能直接计算的
2数据迁移到GPU:
ten1 = torch.FloatTensor(2)
ten1_cuda = ten1.cuda()
还有一种Variable这个容器??不了解
GPU数据复制到CPU:.cpu()
ten1_cuda.cpu()
3!一种简单的gpu-cpu转换:
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
.to(device)代替上述写的.cuda()和.cpu(),表示电脑有什么用什么?