论文解析[8] TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation

发表时间:2021
论文地址:https://arxiv.org/abs/2102.04306
代码地址:https://github.com/Beckschen/TransUNet

1 摘要

在不同的分割任务中,U-Net已经成为一个取得巨大的成功的标准结构。由于卷积操作本身的局部性,U-Net在显式建模长距离依赖时有局限。Transformer是为序列到序列的预测设计的,是具有天生全局自注意力机制的结构,但也会因为不充分的低水平细节导致有限的定位能力。

在此论文中,提出了TransUNet,兼具了Transformer和U-Net的优点。一方面,Transformer可以对来自CNN特征图的标记化特征图像patch进行编码,编码为用于提取全局背景的输入序列。另一方面,解码器上采样编码后融合了高分辨率CNN特征图的特征,用以确保精确的定位。

我们认为,融合了U-Net恢复定位的空间信息来增强细节之后,Transformer可以作为图像分割任务的一个强大的编码器。

2 相关工作

融合CNN和自注意力机制

Transformer

3 方法

通过transformer的使用,将自注意力引入编码器。

在这里插入图片描述

3.1 Transformer作为编码器

图像序列化

首先将输入的图像变形为一个2D的patch序列,每个patch的大小为 P×P,数量为 N = H W P 2 N=\frac{HW}{P^2} N=P2HW

patch 嵌入

我们使用一个可训练的线性投影,将向量化的patch x p x_p xp

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值