医学图像分割新方法:超越自注意力: 用于医学图像分割的可变形大核注意力


前言

本文提出可变形大核注意力(D-LKA Net),即采用大卷积核来充分理解体素上下文的简化注意力机制,在学分割数据集(Synapse、NIH 胰腺和皮肤病变)上证明了其卓越的性能
医学图像分割通过 Transformer 模型得到了显著改进,该模型在掌握深远的上下文和全局上下文信息方面表现出色。 然而,这些模型不断增长的计算需求 (与平方token数量成正比) 限制了它们的深度和分辨率能力。当前大多数方法逐片处理 D 体图像数据 (称为伪 3D),缺少关键的片间信息,从而降低模型的整体性能。为了解决这些挑战,我们引入了Deformable LargeKernel Attention (D-LKA Attention》的概念,这是一种采用大卷积核来充分理解体积上下文的简化注意力机制。 这种机制在类似于自注意力的感受野中运行,同时避免了计算开销。此外,我们提出的注意力机制受益于可变形卷积来灵活地扭曲采样网格,使模型能够适当地适应不同的数据模式。 我们设计了 D-LKA Attention 的 2D 和 3D 改编,后者在跨深度数据理解方面表现出色。这些组件共同塑造了我们新颖的分层 Vision Transformer 架构,即 D-LKA Net。 我们的模型针对流行的医学分割数据集 (Synapse、 NIH 胰腺和皮肤病变)上的领先方法进行的评估证明了其卓越的性能。


在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

论文地址:https://arxiv.org/abs/2309.00121
代码地址:https://github.com/mindflow-institue/deformableLKA

总结

以上就是今天要讲的内容,
关注公众号 CV算法小屋 了解更多前沿AIGC技术,帮助你更好的创业,发论文,找工作
校招找工作没有亮眼的项目怎么办
加技术交流群:加我微信 Lh1141755859

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xuxu1116

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值