2021/9/28 学习汇报总结(UNet;UNet++;CT影像)

2021/9/28 学习汇报总结

U-Net


github地址

  • 解决什么问题?

    • 医学图像的分割
    • 对小数据集十分友好
  • U-Net使用的方法?

    • 整体结构就是先编码(下采样), 再解码(上采样),回归到跟原始图像一样大小的像素点的分类。

    • 继承FCN的思想,继续进行改进。但是相对于FCN,有几个改变的地方,U-Net是完全对称的,且对解码器(应该自Hinton提出编码器、解码器的概念来,即将图像->高语义feature map的过程看成编码器高语义->像素级别的分类score map的过程看作解码器)进行了加卷积加深处理,FCN只是单纯的进行了上采样。

    • Skip connection:两者都用了这样的结构,虽然在现在看来这样的做法比较常见,但是对于当时,这样的结构所带来的明显好处是有目共睹的,因为可以联合高层语义和低层的细粒度表层信息,就很好的符合了分割对这两方面信息的需求。

    • 联合:在FCN中,Skip connection的联合是通过对应像素的求和,而U-Net则是对其的channel的concat过程。

效果

  • CELoss + dice_loss,使用vgg16预训练权重;训练集:验证集 = 9:1;base_lr = 1e-4,StepLR学习率衰减器;batch_size = 2; epoch = 50。

  • Boundary Loss + Dice Loss,权重衰减法,alpha from 1 => 0.01,使用vgg16预训练权重;训练集:验证集 = 9:1;base_lr = 1e-4,StepLR学习率衰减器;batch_size = 2; epoch = 50。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

U-Net++

github地址

效果

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

JlexZzzz

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值