UNet 系列:做医学图像分割的任何人,都必须要会使用 nnU-Net_nnunet和unet区别(1)

UNet 系列

UNet

经典的卷积神经网络都很深,越深的卷积层越适合处理大目标的东西,而医学病症区域往往极小,UNet结构简单适合处理小目标。

医学图像边界模糊,梯度复杂,病症区域可能极其微小,需要较多的高分辨信息。

同时人体内部结构相对固定,分割目标在人体图像中的分布很有规律,语义简单明确,低分辨率信息就可以提供。

UNet使用低分辨率信息做粗调找到病症大概位置,再使用高分辨率精确分割。

假设我们有一张来自太空望远镜的高分辨率图片需要让人来识别上面的行星。

高分辨率图片可以提供丰富的细节,如行星的形状、颜色甚至是表面的模样。所以它有助于我们准确地识别和区分行星。

但如果图片太大,你可能要花很久的时间去一点一点地找。

在这个时候,如果我们还有一张低分辨率的图片,虽然它的细节不够,但可以快速看到图上大概有哪些行星,那么小学生就可以用低分辨率的图片找到大概的位置,然后用高分辨率的图片去精确地找到行星和识别行星。

在UNet中,高分辨率信息可以提供丰富的细节,有助于精确定位、识别、分割,而低分辨率信息可以扩大视野,帮助网络找到有用信息的粗略位置。

下采样和上采样

下采样(卷积步长为2)和上采样()其实很好理解,就像是在看一本有非常多内容,但是文字非常小的书,所以我们需要用放大镜来帮助我们看清楚每一个字,这个过程就像是上采样。

反过来,如果我们需要快速的浏览这本书,而不需要关注每一个具体的字,那么我们就可能会缩小书页,让每一页的内容都能够一目了然,这就像是下采样。

在UNet这类神经网络中,上采样和下采样也有类似的作用。

下采样可以帮助网络抽象和理解图片的总体结构和规律,就像是快速浏览书籍,而上采样则可以帮助网络恢复图片的细节,就像是放大字来看清楚每个字。

跳跃连接

跳跃连接的作用?

跳跃连接的作用就像是在搭积木的时候,直接从一堆积木中找到你需要的积木,而不用一块块的从低到高去查找。

这样就可以更快的找到你需要的积木,并能很好的保存积木的原始信息,而不是在查找的过程中可能会改变积木的形状。

再你做家庭作业的时候,假设你正在解决一个很难的数学问题,可能需要很多步骤。

当你在后面的步骤中遇到困难的时候,往往需要回头去查看前面的步骤,这时候如果你能直接回到具体的步骤,看到原始的解题思路,那你会更快的找出问题,并完成作业。

这里,“回到具体的步骤,看到原始的解题思路”就像是跳跃连接,直接找到你需要补充的信息,而不是从头开始再回顾一遍。

这在神经网络中也很有用,特别是在一个深层神经网络中。

因为在网络的深层中,网络可能已经失去了原始的信息,这时候如果有跳跃连接直接跳回到浅层获取原始的信息,网络就能更好的综合考虑全局和局部的信息,做出更准确的预测。

UNet++:多层级和多尺度的密集链接

UNet:

UNet++:

UNet和UNet++ 类似 飞机和飞机升级版。

都是用来飞行,能带我们去不同的地方。但升级版飞机注重在对原来飞机的改良上,帮助它更好地完成任务。

UNet就像第一代飞机,它的构造很简单,包括下降路径(encoder)和上升路径(decoder),它们尽可能地提取图像信息和预测图像类别。

但是这第一代飞机有局限性。比如说,它只能够做一种类型的飞行任务,不能多任务并行,而且飞行路径不能及时地进行优化调整。

然后,人们发明了UNet++,就像升级版的飞机。它不仅有下降路径和上升路径,还增加了跳跃链接和深度监控。跳跃链接就像是告诉飞行员的不同时期的飞行状况,以便更好地调整飞机路径;深度监控则是增加了飞行途中的多个监控点,可以及时地根据飞行状况进行路径调整。

也就是说,UNet++ 创新性地将解码器(decoder)的不同阶段和编码器(encoder)的各个阶段相互连起来,改进了信息流动的方式,让飞机飞行更加灵活,可控且高效。

再比如,原来每个人只能收到前面一个人的信息,那最前面和最后面距离很远,类似年轻人和老年人之间有代沟。

这样的结构可以有效地缓解两个主要问题:一是语义分割中的大对象和小对象的偏好问题;二是深度监督所带来的深层网络训练难的问题。

nnUNet

集成模型

通常的分割模型都是针对某一特定任务(如心脏分割)进行研究的,需要特定的网络架构设计以及训练方法的设定,它只能解决特定问题而无法解决一系列问题。

而 nnUNet 是一个适应多种分割任务的算法。

一个自适应任何新数据集的医学影像分割框架,该框架能根据给定数据集的属性自动调整所有超参数,整个过程无需人工干预。

具体实现方式:

nnUNet 由 2DUNet、3DUNet、U-Net Cascade 组成。

  • 2D UNet:处理 2D 图像
  • 3DUNet:适合处理3D小尺寸物体的分割。

实际3D训练,因为GPU内存量的限制,只能在切成图像块(patches)训练。

小结构(例如脑肿瘤,海马和前列腺)适合切块,但是像肝这种大结构,切了之后就会损失很多上下文信息。

  • U-Net Cascade:解决3D U-Net在具有大图像尺寸的数据集上的实际缺陷。

nnUNet 对 UNet网络架构的两个小改动,修改了激活函数和归一化的方法。

  • 激活函数:用 leaky ReLU 而不是 ReLU
  • 归一化方法:使用 instance normalization 代替了更流行的 batch normalization
  1. ReLUs:当输入的信号小于0时,ReLU函数的输出就是0;当输入的信号大于0时,ReLU函数的输出就直接是输入的信号。比如,如果我们给ReLU函数输入-5,那么输出就是0;如果我们输入5,那么输出就是5。
  2. Leaky ReLU: 它是ReLU的一个改进版本。在输入信号小于0时,Leaky ReLU函数的输出不再是0,而是输入的信号乘以一个很小的常数,比如0.01。比如,如果我们给Leaky ReLU函数输入-5,那么输出就是-5乘以0.01等于-0.05;如果我们输入5,那么输出就是5。
  3. ReLUs和Leaky ReLU的区别:想象你有一个可以调亮调暗的手电筒,你可以把电筒调暗到最低,但是它仍然会发出一点点微弱的光。这就像Leaky ReLU,即使输入的信号是负的,输出也不会完全是0。而ReLUs就像一个开关,当你关闭它时,它就完全不会发出光。当你打开它时,它会发出与你给它的电力相等的光。
  4. 不完全为0的好处:因为其将所有的输入负数变为0,在训练中可能很脆弱,很容易导致神经元失活,使其不会在任何数据点上再次激活。对于ReLu中(x<0)的激活,此时梯度为0,因此在下降过程中权重不会被调整。
  5. Batch Normalization (BN):假设我们正在烘焙一批饼干,我们要求所有饼干的大小和烘焙时间都一样。为了达到这个目标,我们需要测量一批饼干的平均大小和烘焙时间,然后根据这个标准来制作每一个饼干。这样我们就可以得到一批相似的饼干。这就像BN,它基于一批样本的平均值和标准差来对每一个样本进行调整。
  6. Instance Normalization (IN):但是,如果我们想要每一块饼干都有其特有的风味和烹饪方式,那么我们每做一块饼干,都会根据这一块饼干的特性来调整我们的烘焙方式。这就是像IN,它不是参考其他的样本,而是只基于每个单独样本的特性来进行调整。

因此,BN和IN的主要区别在于,BN是对所有样本进行整体标准化,而IN则是对每个样本单独进行标准化。

除了对自适应预处理,还有训练方案和推理的全面设计。

预处理

下面介绍的步骤无需任何用户干预即可执行。

  • 裁剪:这就像是把所有多余的空白部分都剪掉,只留下有图像的部分。这样做对大部分数据集影响不大。
  • 采样:这就像是把不同大小的图像都变成一样的大小,这样我们的模型可以更好地理解图像的形状和结构。
  • 局部扩展:如果一个对象足够大,那么我们可以放大它,让它的一部分占满整个视野,然后分别观察每一部分。
  • 归一化:这就像是把所有的分数都变成0到100之间的数,这样我们就可以更好地比较它们。

对于那些裁剪后变小了很多的图像,我们只看图像的部分,其他的都不看。

训练过程

我们在做一些实验,就是让电脑自己学会看医学影像并且能自己找到问题。这个过程就像小朋友学习认识事物一样,需要反复练习并及时纠正错误。我们用到了一种叫做U-Net的学习方法,给电脑看了很多医学影像的例子,让电脑自己逐渐明白怎么样能找到问题。

但是,例子如果太少,电脑就有可能学到的不够好。所以我们用了一种叫做“数据增强”的方法,就像是用一个镜子把电脑看过的医学影像做一些拉长、缩短、旋转等变换,制造出更多的例子给电脑看。这样电脑就能更好地学习并且自己找出问题。

为了让电脑学得更好,我们还会让电脑针对每个影像分块去学习,这样电脑就可以更专注于每个小部分,提高学习效果。

patch 采样:同时,我们还要求每次学习的时候,必须有三分之一以上的影像是有问题的,这样电脑才能更好地认识和理解问题。

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 29
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值