出现cuda_out of memory,batch size 已设为1.
搜索可能是cuda10.0对8.0兼容性不好
根据网上修改的步骤
1. netG = nn.DataParallel(netG)
netG = netG.cuda() 在cuda()前添加torch.nn.DataParallel()
2. BN层问题,在报错代码添加
with torch.no_grad():
出现cuda_out of memory,batch size 已设为1.
搜索可能是cuda10.0对8.0兼容性不好
根据网上修改的步骤
1. netG = nn.DataParallel(netG)
netG = netG.cuda() 在cuda()前添加torch.nn.DataParallel()
2. BN层问题,在报错代码添加
with torch.no_grad():