1、torch.sigmoid
2、lstm的hidden_size先改成很小的,后来又增上去;
3、最最根本的原因是:cpu和cuda之间的数据传输太多,导致很慢很慢!!!
true=label.cuda()
pred=torch.sigmoid(pred).cuda()
loss = criterion(pred.float(), true.float())
改成
true = label
pred = torch.sigmoid(pred).cpu()
loss = criterion(pred.float(), true.float())
即转移到cpu上来计算loss后,速度变快。
我这个程序很奇怪,一模一样的数据和代码,几天前跑得很正常,啥都没改,莫名其妙就跑不动了,经过调试发现总是卡住算loss的这一句话,而显卡与前几天唯一的不同是前几天是空的而现在有别人在跑代码,所以可能是显卡内存不够我的程序跑了;