解决办法:
解决1 batchsize 设置缩小
如果batchsize设置改为1,之后还报这个错误,就可以选择第二个解决办法,成功解决,可以运行
解决2 在红色部分输入禁用cudnn代码,可以成功解决,不过会降低程序运行速度
model = model.to(device)
model = nn.DataParallel(model, device_ids=[0])
torch.backends.cudnn.enabled = False
后续补充,在我的代码中造成上述错误主要是由于我在使用转置卷积的时候采用了分组卷积,使用的分组数目和通道数目一样是,可能过多,造成上述错误。
源代码代码如下
self.local_conv2 = nn.ConvTranspose2d(dim //2, dim//2, kernel_size=4,stride=2,padding=1, output_padding=0,bias=True, dilation=1, groups=dim // 2)
当我将代码修改为分组数是原来通道数的一半,再次运行时,不报错,也成功解决问题。不用禁止cudnn,保持原有运行速度运行。
self.local_conv2 = nn.ConvTranspose2d(dim //2, dim//2, kernel_size=4,stride=2,padding=1, output_padding=0,bias=True, dilation=1, groups=dim // 4)