摘要:
传统PE分割方法不能充分考虑PE CT图像特征的层次结构、局部和全局空间特征。为此,提出一种基于Swin Conv unet++ (scunet++)的PE自动分割方法。该方法在编码器和解码器之间融合多个密集跳跃连接,利用Swin Transformer作为编码器。并在解码器子网络中融合不同尺度的特征,以补偿Swin-UNet或其他先进方法中不可避免的下采样造成的空间信息损失,有效解决了上述问题。文中对该方法进行了详细的理论分析,并在公开的PE CT图像数据集FUMPE和CAD-PE上进行了验证。实验结果表明,所提方法在FUMPE数据集上获得了83.47%的Dice相似系数(DSC)和3.83的Hausdorff距离95百分位数(HD95),在CAD-PE数据集上获得了83.42%的DSC和5.10的HD95。这些结果表明,所提出方法在PE分割任务中表现出强大的性能,有可能提高PE自动分割的准确性,并为临床医生提供一个强大的诊断工具。
引言:
为此,从临床角度出发,通过学习医生如何根据CT图像中PE的特征定位PE,提出一种scunet++分割方法。该方法以CTPA图像为研究对象,结合unet++、多融合密集跳跃连接、Swin-Transformer注意力机制和SwinUNet方法的优点,并对网络进行了一些改进,以增强网络的分割精度和稳定性。本文的主要贡献如下:
1. 我们策划了一个为PE标注的CT图像数据集。通过与医学专业人士的合作,我们的团队细致地分析了公开可访问的FUMPE和CAD-PE数据集。这些检查揭示了原始数据集注释中的大量不准确性和不一致性。作为一种纠正措施,我们承担了重新标注这些数据集的任务,以保证其精度。此外,为了方便其他用户的可访问性和实用性,我们在GitHub存储库上为修改后的FUMPE数据集提供了谷歌驱动器可下载链接。
2. 本文研究了具有跳跃连接的unet++卷积神经网络、Transformer注意力机制和SwinUNet纯Transformer u型神经网络模型的融合。这种集成方法提高了分割精度。
3. 引入了一个利用CNN块的瓶颈模块,以解决Swin-Transformer块在从图像中提取局部空间特征方面的不足。这种战略性的增加随后导致了模型的整体性能的增强。