判断张量是否在GPU上

如何将自己的张量或模型放到GPU去计算:

        1 如果本来就确定有GPU可用,可以直接使用 .cuda()命令进行移动

        2 如果想先检查一下自己的设备,可以用

                device = torch.device("cuda" if torch.cuda.is_available() else "cpu") 进行设备判断,接着利用.to(device)后缀进行张量的移动

两个在Gpu上的张量经过简单的操作生成的新的张量还在Gpu上吗?

        是的,还在Gpu上,想一些简单的拼接相加操作不会改变新张量所处的位置。

        

两个Gpu经过一个没有在Gpu上的神经网络模型,张量还在Gpu上吗

        事实上,这是会报错的,因为在张量进入神经网络模型时,需要判断网络与张量是否在同一台设备中,如果既有cpu又有gpu,就会报错。如果都在Gpu上,出来的也还是在Gpu上。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值