Weakly Supervised Intracranial Hemorrhage Segmentation using Head-Wise Gradient-Infused Self-Attention Maps from a Swin Transformer in Categorical Learning
主要创新点包括以下几个方面:
-
弱监督分割方法:作者提出了一种基于分类学习的弱监督分割方法,利用ICH亚型的注释来生成自注意力图,从而实现像素级别的分割,而无需像素级别的标注数据。
-
渐进式注意力:作者使用了渐进式的自注意力机制,通过对不同层级的自注意力图进行加权和叠加,从而获得更全面和准确的分割结果。
-
Head-wise注意力:作者还引入了头部级别的注意力机制,即对多头自注意力机制中的不同头部进行加权,以增强模型对感兴趣区域的关注,从而提高分割的准确性。
渐进式注意力和头部级别的注意力机制的优势在于能够更好地捕捉图像中的局部和全局信息,从而提高了分割的精度和鲁棒性。这些创新点为弱监督分割方法的改进提供了新的思路和方法,有望在医学影像分析领域产生重要的影响。
使用了三个不同的通道来输入CT图像,这是因为CT图像通常由三个不同的成分组成:软组织、骨头和空气。这些成分在CT图像中具有不同的密度和对比度,因此使用不同的通道来表示它们可以更好地捕捉图像中的信息。具体来说,作者使用了三个通道来表示CT图像中的不同成分:第一个通道表示软组织,第二个通道表示骨头,第三个通道表示空气。这种方法可以更好地区分不同的组织和结构,从而提高分割的准确性和鲁棒性。
Head-wise注意力是一种新的注意力机制,与以前的方法有所不同。在以前的方法中,注意力机制通常是在不同的层级或不同的头部之间进行加权,以捕捉不同的特征和信息。而在Head-wise注意力中,注意力机制是在同一层级的不同头部之间进行加权,以增强模型对感兴趣区域的关注。这种方法可以更好地捕捉图像中的局部和全局信息,从而提高分割的精度和鲁棒性。此外,Head-wise注意力还可以减少模型的计算量和参数数量,从而提高模型的效率和速度。因此,Head-wise注意力是一种更加高效和有效的注意力机制,可以为医学影像分析领域的研究和实践提供新的思路和方法。