表现SOTA!并提出局部-全局训练策略(LoGo),进一步提高性能,优于Res-UNet、U-Net++等网络,代码刚刚开源!
Medical Transformer: Gated Axial-Attention for Medical Image Segmentation
- 作者单位:JHU, 新泽西州立大学
- 代码:https://github.com/jeya-maria-jose/Medical-Transformer
- 论文下载链接:https://arxiv.org/abs/2102.10662
在过去的十年中,深度卷积神经网络已被广泛用于医学图像分割,并显示出足够的性能。
但是,由于卷积架构中存在固有的inductive biases,因此他们对图像中的远程依存关系缺乏了解。最近提出的利用自注意力机制的基于Transformer的体系结构对远程依赖项进行编码,并学习高度表达的表示形式。
这促使我们探索基于Transformer的解决方案,并研究将基于Transformer的网络体系结构用于医学图像分割任务的可行性。提出用于视觉应用的大多数现有的基于Transformer的网络体系结构都需要大规模的数据集才能正确地进行训练。但是,与用于视觉应用的数据集相比,对于医学成像而言,数据样本的数量相对