调试代码历程1

这篇博客探讨了在深度学习中如何通过concatenate函数叠加影像,并介绍了D-link和BASnet网络对影像的处理。在使用nn.CrossEntropyLoss损失函数时未出现异常,但在应用特定混合损失函数时,发现输入与输出尺寸不匹配问题。解决方法是将标签调整为与处理后影像相同的尺寸,从而确保BASnet网络能正常训练。此外,还展示了不同网络结构对输入影像和标签尺寸的影响。
摘要由CSDN通过智能技术生成

通过concatenate()叠加两张影像

			imgdata0 = sample['img']
            imgdata1 = sample['img1']
            imglabel = sample['label'].long()
            imgdata = np.concatenate([imgdata0, imgdata1], axis=1)

叠加后影像的形状大小,以及标签

 影像:torch.Size([4, 6, 256, 256])
 标签: torch.Size([4, 256, 256])

经过D-link网络处理后

影像: torch.Size([4, 2, 256, 256])
标签: torch.Size([4, 256, 256])

用nn.CrossEntropyLoss()损失函数处理,未见异常

经BASnet网络处理后

影像:torch.Size([4, 1, 256, 256])
标签: torch.Size([4, 256, 256])

用文中定义的混合损失函数处理,就发现输入与输出大小不一致的问题
经检查发现当标签尺寸

标签:torch.Size([4, 1, 256, 256])

就可以正常运行

BAS网络正常训练(不改变数据集接口)

输入图像:  torch.Size([4, 3, 224, 224])
标签:     torch.Size([4, 1, 224, 224])
处理后影像 torch.Size([4, 1, 224, 224])
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值