【pytorch】RuntimeError: Integer division of tensors using div or / is no longer supported

在PyTorch 1.6.0版本中,Tensor与int的除法操作不再被支持。为进行整数除法,可以使用`torch.floor_divide()`函数,它等同于Python的'//'。若需要浮点数结果,应使用`torch.true_divide()`。博客提供了这两个函数的用法示例,并建议查阅官方文档以了解更多详情。
摘要由CSDN通过智能技术生成

 

对于tensor A和整数n之间的除法:


result = A / n # not supported in torch 1.6.0

# solution

result = torch.floor_divide(A, n)

这个floor_divide相当于python中的'//',即得到的结果为整型(去掉了小数点后的数字)

如果你不想要这种除法,想得到带小数点的准确数值,您可以:

result = torch.true_divide(A, n)

根据具体情况选取以上两种除法,即可解决这个issue。

ps:

pytorch升级到1.6.0,发现tensor和int之间的除法不能直接用'/'。明明1.5.0都是可以用的-_-。这种邻代兼容性有点值得吐槽。

对于这个问题直接看官方文档就可以了:

https://pytorch.org/docs/stable/generated/torch.div.html

或者,看我的解决方案:

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
这个错误通常是由于在PyTorch中使用自动求导时出现的问题。当你尝试对一个不需要梯度的张量进行反向传播时,就会出现这个错误。这通常是由于在模型中使用了不需要梯度的张量或者在计算图中的某些操作没有被设置为需要梯度。 以下是一些可能导致这个错误的情况: 1.在模型中使用了不需要梯度的张量,例如使用torch.tensor()创建的张量,默认情况下不需要梯度。 2.在计算图中的某些操作没有被设置为需要梯度,例如使用detach()方法或with torch.no_grad()上下文管理器。 以下是一些可能的解决方案: 1.确保在模型中只使用需要梯度的张量,例如使用torch.nn.Parameter()创建的张量。 2.确保在计算图中的所有操作都被设置为需要梯度,例如使用requires_grad=True参数创建张量或使用with torch.autograd.enable_grad()上下文管理器。 3.检查模型中是否存在不需要梯度的层或参数,并将其设置为需要梯度。 4.检查是否在计算图中使用了detach()方法或with torch.no_grad()上下文管理器,并根据需要进行修改。 以下是一个例子,演示了如何在PyTorch中创建需要梯度的张量,并将其用于模型训练: ```python import torch # 创建需要梯度的张量 x = torch.randn(3, requires_grad=True) y = torch.randn(3, requires_grad=True) # 计算图中的操作 z = torch.sum(x + y) # 反向传播 z.backward() # 查看梯度 print(x.grad) print(y.grad) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DLANDML

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值