Debug记录(一)

Bug1

对tensor进行.view操作时报错。但是重新torch.randn(xxx)再view是正常的,发现是因为view操作对内存有连续性要求,用tensor.contiguous()解决。

Bug2

单卡训练正常,多卡训练报错,称存在in_place操作。发现是因为nn.BatchNorm2d在多卡时可能存在问题,问题可能与多卡并行训练(Distributed Data Parallel, DDP) 的BatchNorm 层行为不兼容有关。
解决方法:使用 track_running_stats=False。(还有其他方法例如使用 nn.SyncBatchNorm 代替 nn.BatchNorm)
https://www.cnblogs.com/jins-note/p/13440772.html 解释了track_running_stats参数。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值