RuntimeError_ Input type (torch.FloatTensor) and weight type (torch.cuda.FloatTensor)

两个解决方案

方案一:检查网络和数据是否都在GPU上

RuntimeError:输入类型(torch.FloatTensor)和权重类型(torch.cuda.FloatTensor)应该相同,或者输入应该是一个MKLDNN张量,而权重是一个密集张量。

我们的权重是cuda类型(GPU训练得到),而输入(要测试的数据)不是cuda类型。 采用GPU训练的模型,不能直接在CPU上使用,也要放到GPU中预测。

如果用的模型参数是在cuda上(gpu)训练的,在使用其进行测试时,需要将要测试的数据也放到GPU上,即:data.cuda()

仔细检查一下神经网络和相关的数据是否都放在了GPU上!

方案二:模型定义全放在类的初始化里

此外,根据大佬的分析,也有可能,是因为你的模型在定义的时候,没有定义好,导致模型的一部分在加载的时候没有办法转移到 cuda上。 具体测试就略过了。

总的来说,如果上面的方法不奏效,那么试一试把所有的网络层(只要有参数需要训练的网络层)都放到 __init__()函数里面去定义,只在 forward()中写运行时的逻辑,即:

class A(nn.Module):
    def __init__(self):
        super(A,self).__init__()
        self.conv = nn.Conv2d(in_channels=3, out_channels=8, kernel_size=3)
        self.relu = nn.ReLU(inplace=True)
        self.b_module = B()

    def forward(self,x):
        out = self.conv(x)
        out = self.relu(out)
        out = self.b_module(out)
        return out

class B(nn.Module):
    def __init__(self):
        super(B,self).__init__()
        self.conv = nn.Conv2d(in_channels=8, out_channels=16, kernel_size=3)
        self.relu = nn.ReLU(inplace=True)

    def forward(self, x):
        out = self.conv(x)
        out = self.relu(out)
        return out

参考:

  • 16
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
这个错误是由于输入类型(torch.FloatTensor)和权重类型(torch.cuda.HalfTensor)不匹配导致的。根据你提供的引用内容,我们可以看到这个错误与之前的错误形式类似,只是类型不同。 根据引用和引用,我们可以推断出,当输入类型是torch.FloatTensor时,权重类型应该是torch.FloatTensor;当输入类型是torch.cuda.FloatTensor时,权重类型应该是torch.cuda.FloatTensor。因此,当输入类型是torch.FloatTensor时,权重类型为torch.cuda.HalfTensor是不匹配的,导致了错误的发生。 总之,为了解决这个错误,你需要确保输入类型和权重类型是相同的。你可以将输入和权重类型都改为torch.FloatTensor或者都改为torch.cuda.HalfTensor来解决这个问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* [【PyTorch】常见错误: RuntimeError: Input type (torch.FloatTensor) and weight type (torch.cuda....](https://blog.csdn.net/qq_40520596/article/details/106980556)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *3* [五、RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor)](https://blog.csdn.net/panchang199266/article/details/128153179)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

奋斗的西瓜瓜

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值