记录自己在torch中遇到的一些bug
这么写会导致默认的cuda:0中一直被占用内存
FloatTensor = torch.cuda.FloatTensor if x.is_cuda else torch.FloatTensor
LongTensor = torch.cuda.LongTensor if x.is_cuda else torch.LongTensor
anchor_w = FloatTensor(scaled_anchors_l).index_select(1, LongTensor([0]))
anchor_h = FloatTensor(scaled_anchors_l).index_select(1, LongTensor([1]))
改成:
anchor_w = torch.from_numpy(scaled_anchors_l).type(torch.LongTensor).to(self.DEVICE).index_select(1, torch.tensor([0]).type(torch.LongTensor).to(self.DEVICE))
anchor_h = torch.from_numpy(scaled_anchors_l).type(torch.LongTensor).to(self.DEVICE).index_select(1, torch.tensor([1]).type(torch.LongTensor).to(self.DEVICE))