PyTorch Error fix 汇总

1、IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim

报错如下:
IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python number

报错原因: pytorch版本问题
loss.data[0] 是pytorch0.3.1版本代码
在0.4-0.5版本的pytorch会出现警告,不会报错;
在0.5版本以上的pytorch就会报错。

解决方法:
loss.data[0]修改为:loss.item()

2、UserWarning: Legacy autograd function with non-static forward method is deprecate and will be removed in 1.3

报错如下:
UserWarning: Legacy autograd function with non-static forward method is deprecated and will be removed in 1.3. Please use new-style autograd function with static forward method. (Example: https://pytorch.org/docs/stable/autograd.html#torch.autograd.Function)
在这里插入图片描述

报错原因: pytorch版本问题
使用PyTorch编写代码的时候,我们通常将模型整合进一个类,在init方法里声明模型结构,在forward方法里约定模型里数据的正向流动,然后PyTorch自动生成数据的方向传播backward方法。

PyTorch在1.3版本及之后,规定forward方法必须是静态方法。
违反了该原则的代码将会在运行时报上述错误。

解决方法:

一般的解决办法是,在forward方法声明上一行加入@staticmethod装饰器,即可完成修改。
参考官方给的Example:
在这里插入图片描述

但是在一些没那么规范的代码下,这个改进可能会成为我们的绊脚石。所以有临时的解决办法:

  • 方法一:将PyTorch降级到1.2版本及以下,因为这个改进1.3版本才生效;
  • 方法二:加入代码忽略掉UserWarning:
import warnings
warnings.filterwarnings("ignore")

(我最后用的临时方法二,虽然warning其实可以不管它,但是它一直出现在终端里太烦了,我都看不见每个epoch执行的过程了,哼)

3、TypeError: _mean() got an unexpected keyword argument 'dim’报错解决【numpy中用axis和pytorch中用dim,因为一个是numpy变量一个是tensor变量】

报错如下:
TypeError: _mean() got an unexpected keyword argument 'dim'
在这里插入图片描述
报错原因: numpy中用axis和pytorch中用dim,因为一个是numpy变量一个是tensor变量

发生错误的过程如下:
刚开始,我的代码是这样的:

此处省略若干行
input_var = torch.autograd.Variable(data.view(-1, length, data.size(2), data.size(3)),volatile=True)
rst = net(input_var).data
return i, rst.reshape((num_crop, int(args.test_segments/args.models_segments), num_class)).mean(axis=0).reshape((int(args.test_segments/args.models_segments), 1, num_class)), label[0]

这时候运行是没有问题的,因为用torch.autograd.Variable接口封装成Variable类型数据并作为模型的输入。net(input_var)得到的结果是Variable,这时候rst是tensor变量,可以用dim参数。

但是因为我要读取Tensor内容,需读取data变量,所以代码改成了:

此处省略若干行
input_var = torch.autograd.Variable(data.view(-1, length, data.size(2), data.size(3)),volatile=True)
rst = net(input_var).data
return i, rst.reshape((num_crop, int(args.test_segments/args.models_segments), num_class)).mean(axis=0).reshape((int(args.test_segments/args.models_segments), 1, num_class)), label[0]

其中,cpu()表示存储到cpu,numpy()表示Tensor转为numpy array,copy()表示拷贝
然后就
在这里插入图片描述
转成了numpy变量之后,就得用axis

解决办法: dim改成axis

附:numpy中的axis和Pytorch中的dim参数

Numpy中有许多函数都带有一个参数:axis(对应于pytorch中的dim参数),用来指定函数计算是在哪个维度上进行的。这些函数包括:mean() 、sum()等。 这里说一下axis(dim)的用法:

简单的记忆方式:
1、二维:
axis=0表示分别对每一列做运算;
axis=1表示分别对每一行做运算。
2、高维:
假设输入的形状是(m, n, k):
-如果指定axis(dim)=0, 输出的size就是(1, n, k)或者(n, k)
-如果指定axis(dim)=1, 输出的size就是(m, 1, k)或者(m, k)
-如果指定axis(dim)=2, 输出的size就是(m, n, 1)或者(m, n).
size中是否有“1”,取决于参数keepdims(或keepdim)。keepdims=True会保留维度1,通常默认是等于False。

注意:以上只是经验总结,对于绝大部分函数适用,少数函数如cumsum(累加)不符合。

此外,对于二维数组(矩阵),可以用一句话记住:axis=0表示分别对每一列做运算;如果axis=1表示分别对每一行做运算。这个tip对几乎所有场景适用(包括cumsum函数等)。

4、RuntimeError: kind_.is_prim() INTERNAL ASSERT FAILED at /pytorch/torch/csrc/jit/ir.cpp:904, please report a bug to PyTorch.

报错如下:
RuntimeError: kind_.is_prim() INTERNAL ASSERT FAILED at /pytorch/torch/csrc/jit/ir.cpp:904, please report a bug to PyTorch. Only prim ops are allowed to not have a registered operator but aten::_convolution doesn't have one either. We don't know if this op has side effects. (hasSideEffects at /pytorch/torch/csrc/jit/ir.cpp:904)
在这里插入图片描述
报错原因:
Pytorch使用tensorboardX可视化,使用语句from tensorboardX import SummaryWriter

解决方法:

from tensorboardX import SummaryWriter
改成
from torch.utils.tensorboard import SummaryWriter

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

夏普通

谢谢打赏~普通在此谢过

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值