目录
A MULTI-STAGE FRAMEWORK WITH CONTEXT INFORMATION FUSION STRUCTURE FOR SKIN LESION SEGMENTATION
摘要
- CAD是识别皮肤病变的有效方式
- 皮肤病变分割是CAD中的重要一步
- 由于病变外表和伪影种类多样,致使现有方法仍然存在一定的缺陷,比如分割精度
- 本文的方案
关键字:皮肤病变分割;U-NET;自上下文方案;上下文信息融合结构;深监督机制
1、引言
- 黑色素瘤病很严重,提前预防是非常有效的降低死亡率的方式。
- 传统的皮肤科医生肉眼鉴定的方式可重复性差
- 由于病变边界不规则、模糊,形状、颜色、大小不一,病变与周围皮肤对比度低,以及各种伪影等原因,降低了诊断准确率。
- 所以导致CAD十分被需要
- 前人提出的解决办法:
- 传统的方法
- 深度学习的方法-卷积
- 指出了FCN,MFCN,U-Net等方法
- 本文的方法是基于MFCN和U-Net的算法思想进行的进一步优化。
- 本文的优化思路如下:多阶段+U-Net+自动上下文+深监督机制
2、方法
UNet with context information fusion structure (CIFS)
使用上下文信息融合结构的U-Net是为了提高分割的准确度。由于结构的复杂性利用深监督机制来降低训练难度。最后的分割结果用简单的阈值处理。
2.1 多级U-Net结构
多级的U-Net结构是U-Net结构利用自动上下文机制
新机制下的结果表示如下:
常规的自动上下文机制每个阶段采用的模型都是分别预先训练好之后再针对皮肤镜图像进行微调完成的,会导致每个相邻阶段之间信息的不匹配。
针对这个问题本文的解决方法是利用端到端的训练方式来完成一整套的训练结构。
2.2 上下文信息融合结构
参考的自动上下文机制,是指将每个分类器生成的改良土与RGB图像进行“链接”然后他们直接喂给下一阶段的分类器,以此在图像空间中继承高级上下文和低级的外观信息。
受在特征空间中进行信息融合可以使模型理解完整的图像 思想的启发。
本文的改进方案是不直接将两者进行连接而是在编码器中以每个阶段同样的特征提取方式应用在上一层输出的概率图上。
2.3 深监督机制
3、试验结果
3.1 数据描述和实现细节
数据集:ISBI 2016挑战赛数据集,训练集,测试集和验证集占比情况,数据的尺寸信息。
训练之前进行的预处理:裁剪为160*224大小,并进行归一化操作。
数据增广的方式:随机在水平和垂直方向上翻转图像->随机的在(-25~25)的范围内旋转图像。
5个评判标准:JA DI SP SE AC
考虑到分割精度和计算成本:本文对照原U-Net结构将编码器和解码器中特征图的个数减少为其1/4。
优化器采用Adam ,初始学习率为0.0001,分割阈值采用的是0.7
120 epoch batch-size为16 NVIDIA GTX1080Ti GPU with 11GB VRAM
损失函数 Jaccard distance loss 四个阶段采用的权重率分别为 0.7;0.8;0.9;1
3.2 结果
定量分析:
两个结果分别是本文优化提升和对比之前方法所得提升。
定性分析:
说明分割结果逐阶段进行了细化,伪影和皮肤外观的影响逐级减小。
4、结论
介绍了本文采用的方法+方法细分下的精炼介绍+取得的成就+对未来工作的展望(提高模型在其他大型皮肤图像的适用性)