Medical Transformer: Gated Axial-Attention for Medical Image Segmentation

Medical Transformer提出了一种名为Gated Axial-Attention的模型,解决医学图像中远程依赖关系的问题。通过局部-全局(LoGo)训练策略,该模型在有限数据下展现出优于Res-UNet和U-Net++的性能,已在多个医疗图像分割数据集上验证。代码已开源,相关论文可供下载。
摘要由CSDN通过智能技术生成

表现SOTA!并提出局部-全局训练策略(LoGo),进一步提高性能,优于Res-UNet、U-Net++等网络,代码刚刚开源!

Medical Transformer: Gated Axial-Attention for Medical Image Segmentation

在这里插入图片描述

  • 作者单位:JHU, 新泽西州立大学
  • 代码:https://github.com/jeya-maria-jose/Medical-Transformer
  • 论文下载链接:https://arxiv.org/abs/2102.10662

在过去的十年中,深度卷积神经网络已被广泛用于医学图像分割,并显示出足够的性能。

在这里插入图片描述

但是,由于卷积架构中存在固有的inductive biases,因此他们对图像中的远程依存关系缺乏了解。最近提出的利用自注意力机制的基于Transformer的体系结构对远程依赖项进行编码,并学习高度表达的表示形式。

这促使我们探索基于Transformer的解决方案,并研究将基于Transformer的网络体系结构用于医学图像分割任务的可行性。提出用于视觉应用的大多数现有的基于Transformer的网络体系结构都需要大规模的数据集才能正确地进行训练。但是,与用于视觉应用的数据集相比,对于医学成像而言,数据样本的数量相对

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值