两个有意思的bug(pytorch, numpy)

本文探讨了PyTorch中索引加一操作的非预期行为,当索引重复时,只加一一次,而非预期的多次。此外,还讨论了PyTorch不支持负数步长的问题,以及在numpy中实现翻转操作后,虽然numpy能处理负数步长,但在转换回PyTorch Dataset时仍遇到问题。解决方案是通过实际改变数据来达到翻转效果。
摘要由CSDN通过智能技术生成

pytorch索引加一出错

为了加速运算,写了一行对应索引加一的代码,大概长这个样子:

#注意data是pytorch里的tensor
data[index] += 1

少量数据的测试中,上面的代码运行正常,结果也正确。
当index长度大于data的长度时候,运行也正常,但是加和总数对不上。
后来发现,在pytorch中上述的索引加一操作在一次调用中只会对单个索引执行一次。具体讲个例子:
比如index=[1, 1, 1]
预想的结果是data[1] = data[1]+3, 但是实际上只加了一次也就是data[1]=data[1]+1。
猜测这可能是pytorch的速度优化导致的。

numpy与pytorch的负数步长

原意是想找个翻转tensor的操作,但是transformer里面要求是PIL的Image格式。所以想自己写了一个。
第一个版本长这样

# 注意data是tensor
data =
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值