LightM-UNet:Mamba助力轻量级UNet进行医学图像分割

北京大学和北航的研究者提出LightM-UNet,结合Mamba与UNet,降低116倍参数和21倍计算成本,实现高效医学图像分割,表现出色的性能。
摘要由CSDN通过智能技术生成

LightM-UNet:一种轻量级 Mamba UNet,它将 Mamba 和 UNet 集成在一个轻量级框架中,实现了卓越的分割性能,同时将参数和计算成本分别大幅降低了 116 倍和 21 倍!代码即将开源!

点击关注 @CVer官方知乎账号,可以第一时间看到最优质、最前沿的CV、AI、AIGC工作~

LightM-UNet

LightM-UNet: Mamba Assists in Lightweight UNet for Medical Image Segmentation

单位:北京大学, 北航

代码:https://github.com/MrBlankness/LightM-UNet

论文:https://arxiv.org/abs/2403.05246

CVPR 2024 论文和开源项目合集请戳—>https://github.com/amusi/CVPR2024-Papers-with-Code

UNet 及其变体已广泛应用于医学图像分割。然而,这些模型,特别是基于 Transformer 架构的模型,由于参数数量大和计算负载大而带来挑战,使其不适合移动健康应用。

最近,以 Mamba 为代表的状态空间模型 (SSM) 已成为 CNN 和 Transformer 架构的竞争替代品。 在此基础上,我们采用 Mamba 作为 UNet 中 CNN 和 Transformer 的轻量级替代品,旨在解决实际医疗环境中计算资源限制带来的挑战。

为此,我们引入了轻量级 Mamba UNet(LightM-UNet),它将 Mamba 和 UNet 集成在一个轻量级框架中。

具体来说,LightM-UNet 以纯 Mamba 方式利用残差视觉 Mamba 层来提取深层语义特征并以线性计算复杂度对远程空间依赖性进行建模。

主要贡献

实验结果

在两个真实世界的 2D/3D 数据集上进行的大量实验表明,LightM-UNet 超越了现有的最先进工作。

值得注意的是,与著名的 nnU-Net 相比,LightM-UNet 实现了卓越的分割性能,同时将参数和计算成本分别大幅降低了 116 倍和 21 倍。 这凸显了 Mamba 在促进模型轻量化方面的潜力。

现在点击关注@CVer官方知乎账号,可以第一时间看到最优质、最前沿的CV、AI工作~涨点神器、LLM、AIGC(图像/视频/3D生成)、多模态、医学影像、分类、检测、分割、跟踪、扩散、CNN、Transformer、NeRF、3DGS、low-level、自动驾驶、ReID、遥感等方向通通拿下!

CVPR 2024 论文和开源项目合集请戳—>

https://github.com/amusi/CVPR2024-Papers-with-Code

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值