Deep Learning-based Automated Delineation of Head and Neck Malignant Lesions from PET Images

Deep Learning-based Automated Delineation of Head and Neck Malignant Lesions from PET Images
2020 IEEE Nuclear Science Symposium and Medical Imaging Conference (NSS/MIC)
(会议论文,文章只有3页,内容比较少,但是数据集可以参考一下)

Abstract

准确描述大体肿瘤体积(GTV)是放射肿瘤学治疗计划的关键。由于恶性病变的形状不规则且多种多样,这项任务非常具有挑战性。在PET图像上手工描绘GTV不仅耗时,而且还会受到观察者之间和观察者内部变异性的影响。在这项工作中,我们开发了基于深度学习的方法,用于在头颈癌患者的PET图像上自动勾画GTV。为此,采用了用于体积医学图像分割的全卷积神经网络VNet和20层残差卷积神经网络HighResNet。在510例头颈癌患者的18F-FDG-PET/CT图像上,使用手动定义(参考)的GTV对这些算法进行训练、评估和测试。这些网络的输入(无论是在训练阶段还是在评估阶段)都是12×12×12 cm的PET图像的子体积,包含肿瘤的全部体积和邻近的背景放射性示踪剂摄取。这些网络被训练以生成代表输入PET子体积上的GTV的二进制掩码。标准分割度量,包括Dice相似性和precision被用来评估这些算法的性能。HighResNet实现了自动GTV描绘,Dice指数为0.87±0.04,而V-net为0.86±0.06。尽管这两种方法的性能相近,但HighResNet在不同受试者之间表现出较小的差异性,反映在较小的标准偏差和显著较高的precision指数(0.87±0.07 vs 0.80±0.10)。深度学习技术,特别是HighResNet算法,在头颈部PET图像的自动GTV勾画中显示出良好的性能。结合解剖学/结构信息,特别是MRI,可能会导致不同对象之间更高的分割准确率或更少的差异性。

Keywords

Head and Neck Cancer Segmentation PET Deep Learning

Introduction

头颈癌是全世界最常见的癌症类型之一。高精度体外放射治疗(RT)被认为是治疗这类癌症的有效策略。准确勾画大体肿瘤体积(GTV)是进行有效的图像引导RT计划的关键步骤。
准确而稳健的GTV描绘允许将最大治疗剂量递送至目标体积并使健康组织免受不希望的毒性。由于接近关键的解剖结构,这个问题在头颈部肿瘤中特别重要。在临床实践中,GTV描绘通常由放射肿瘤学家通过手动或半手动技术进行[1]。这个过程不仅耗时,而且容易出现观察者内部和观察者外部的差异。许多研究表明,由于操作员的知识,经验和工作量,GTV的多观察者描述差异很大[2]。有鉴于此,准确,稳健和可重复的GTV描绘方法对于头颈部肿瘤的有效RT计划至关重要。
由于头部和颈部肿瘤的形状不规则、接近关键结构以及存在外观/信号相似的健康组织,因此头颈部肿瘤的GTV分割具有挑战性[36]。基于深度学习的方法在医学图像分析中表现出良好的性能,包括图像伪影去除[7,8]、图像增强[9-11]、量化[12]和分割[13,14]。在这项工作中,我们开发了基于深度学习的方法,从头部和颈部的PET图像中自动勾画GTV。为此,采用了用于体积医学图像分割的全卷积神经网络V-Net和20层残差卷积神经网络HighResNet算法。这项研究的目的是检验深度学习方法在不同学科上的分割准确率、总体性能和可变性的水平。

Materials and methods

Description of PET/CT datasets

数据集包括510名头颈癌患者的18F-FDGPET/CT图像,这些图像来自癌症影像档案(TCIA)[15]。由经验丰富的核医学医生在PET图像上手动描绘相应的GTV,并以二进制格式保存。为了将PET图像提供给深度学习算法,从原始PET图像中提取包含整个肿瘤体积和邻近背景放射性示踪剂摄取的12×12×12 cm子体积的PET图像,以创建矩阵和体素大小一致的数据集。相应地处理代表GTV的二进制掩码。

Deep learning approaches

在这项研究中实现了两种最先进的深度学习方法(V-Net和HighResNet),它们在医学图像分割中具有良好的性能[16,17]。V-Net是一种用于体积医学图像分割的全卷积神经网络,它由10级组成,不同的感受野从5×5×5到551×551×551不等。HighResNet是一种配备扩张卷积运算加粗样式的20层剩余卷积神经网络。这些网络以Dice指数为损失函数,批次大小为1,采用10次交叉验证方案进行训练。以SUV为单位缩放的PET裁剪图像作为这些算法的输入,生成相应的GTV二值掩模作为输出。

Clinical evaluation

以人工分割GTVs为参考,评估了V-Net和HiResNet模型的性能。为此,Dice 指标(Eq.1)、Jaccard相似系数(Eq.2)、precision(Eq.3),马太相关系数(MCC)(Eq.4)对510名受试者进行了计算。
公式1、2、3、4

Results and Discussion

图1描述了使用V-Net和HighResNet算法在PET图像上描绘GTV的代表性示例。还提供了肿瘤的三维渲染体积以供肉眼检查。
图1
图1.利用V-Net和HighResNet算法在PET图像上绘制GTV的典型实例。
图2显示了针对HighResNet和V-Net算法计算的510个受试者的分割度量的盒图,包括Dice、Jaccard、Precision和MCC。在Dice指数方面,两种深度学习算法都表现出良好的性能。然而,HighResNet的表现略好于V-Net,Dice为0.87±0.04,而V-Net为0.86±0.06。此外,HighResNet在不同受试者之间表现出更小的差异性和更强的稳健性,这体现在较低的标准偏差上。
图2
图2.ResNet和vNet不同参数的盒图
表1总结了HighResNet和V-Net算法的分割度量的统计总结。在precision度量方面,HighResNet算法表现出优于V-Net模型的性能。HighResNet算法的precision为0.87±0.07,而V-net模型的precision为0.80±0.10。在HighResNet模型中,不仅510个受试者的总体precision更高,更低的标准差证明了该模型对自动GTV描述的稳健性。

Conclusion

深度学习技术,特别是HighResNet算法,在头颈部PET图像的自动GTV勾画中显示出良好的性能。HighResNet算法不仅使病变体积的量化略有改善,而且在不同受试者之间表现出较小的可变性。结合解剖学/结构信息,特别是MRI,可能会导致不同对象之间更高的分割准确率或更少的变异性。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值