又来更新啦!要想不被生活按在地上摩擦,还是得功夫下在平时!
今天更新一个发现的好包,此处应有掌声(啪啪啪)--> torchsnooper
也是属于我pytorch大军中的一员,哈哈。
这个主要是解决什么问题内?
不知道你们会不会遇到这种情况:
RuntimeError: Expected object of backend CPU but got backend CUDA for sequence element 1 in sequence argument at position #1 'tensors'
或者是这种:
RuntimeError: Expected object of scalar type Byte but got scalar type Long for argument
这种问题可以统称为tensor类型不匹配问题,可以是tensor位置类型的不匹配(一个在cpu,一个在gpu),也可以是tensor数据类型的不匹配(一个是int,一个float)。但是这种模糊的错误提示你往往不知道改怎么改,改哪个,考虑到这些,参与过pytorch和tensorflow的某个大佬坐不住了,第二天早上起来敲了敲键盘,开源了一个库,叫做torchsnooper。
github网址:
https://github.com/zasdfgbnm/TorchSnooper
这个库就是用来解决tensor的类型自动输出的,具体使用方法可以见这个链接,也可以往下看,其实很简单。
比如下面这段提示:
通过提示可以定位到函数,在我这里是forward函数。然后,我们使用torchsnooper
1)引入库
import torchsnooper
2)在对应函数上面添加 @torchsnooper.snoop()
在我这里,就是在forward函数上面添加
@torchsnooper.snoop() def forward(self, cur_state, next_state, action): action = torch.cat((action[0], action[1]), dim=-1) # predict action encode_state = self.base(cur_state) encode_next_state = self.base(next_state) actor_features = self.inverse_net(torch.cat((encode_state, encode_next_state), dim=-1)) predict_next_state = self.forward_net(torch.cat((encode_state, action), dim=-1)) return encode_next_state, predict_next_state, actor_features
然后直接运行,查看控制台的输出:
可以看到,action是一个tuple,第一个数据来自cpu,第二个数据来自cuda。
然后找一个为什么第一个数据是cpu的,从里往外找,还是使用@来输出,发现在convert_action函数中使用了
action_cat_convert = torch.zeros(batch_size, self.uav_num)
默认是cpu的数据类型,把他放到cuda上:
action_cat_convert = torch.zeros(batch_size, self.uav_num, device='cuda')
运行成功!