TED-net: Convolution-free T2T-ViT-based Encoder-decoder Dilation network 阅读笔记(小关键点记录)

笔者的研究方向即为低剂量CT去噪,这篇论文可以说是transformer在该领域的一次重要应用,欢迎大家在评论区一起讨论学习。


本文提出了一种基于无卷积T2T-ViT的编码器-解码器膨胀网络(TED-net),以丰富LDCT去噪算法家族。该模型没有卷积块,由一个带唯一transformer的对称编解码块组成。

PS:前置论文可以参考笔者的前两篇阅读笔记,包括:ViT、T2T-ViT。

介绍

作者在这部分并没有展示他的创新点,只是针对前人的优势和不足之处做了分析说明,在此不再赘述。

方法

        本文提出的模型如图所示,在编码部分,该模型包括Tokenization block(词语切分块)、Transformer Block(TB)、Cyclic Shift Block(循环位移块,CSB)、带膨胀的T2T块(T2TD)和不带膨胀的T2T块(T2T)。解码器部分包括T2T、T2TD、逆循环移位块(ICSB)和解码块。

 Tokenize block使用unfold(展开)从图像补丁中提取token,而DeToken block应用Fold将token转换回图像。TB包括一个典型的transformer块。CSB使用循环移位操作,ICSB使用逆循环移位。T

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值