230210论文分享

一、Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method

三个创新点:1、Transformer block里面修改了 attention;2、Transformer block里修改了FFN;3、添加了 cross-layer attention 。

  1. attention

ViT在Q和K计算相似性时,对于输入为(C,H,W)的特征需要进行CHWxCHW的运算(像素维)。 Restormer在Q和K计算相似性时,对于输入为(C,H,W)的特征需要进行CxC的运算(通道维)。本文分为两个步骤,第一步相似性计算的是HxH,叫做 height-axis attention。第二步相似性计算的是 WxW,叫做 width-axis attention。

  1. DGFN

双门控:两个分支都使用GELU,并加权至另一分支。

  1. cross-layer attention

输入N组(C,H,W)的特征,做QKV的运算,得到NxN相似性矩阵。输入的N组特征里,强调重要的、抑制不重要的。

二、ShufflfleMixer: An Effificient ConvNet for Image Super-Resolution

1、shuffle mixer layer

在通道维split为:z1,z2。z1经过point-wise MLP后与z2 concat。然后shuffle。

Point-wise MLP处理。为啥叫逐点MLP呢,其实就是把linear替换成1×1Conv,激活函数用SiLU。

2.FMBConv

三、【ARXIV2212】A Close Look at Spatial Modeling: From Attention to Convolution

CHW特征矩阵 和 池化后的小矩阵 相乘,得到相似性矩阵,而不是通过QK的计算得到。

作者引入了一个 Competitive Information Bottleneck 结构:中间层引入了“竞争”机制,6个节点分别连接到2个3节点层,然后选较大的节点。

四、DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention

  1. 应用了DEConv:Detail-enhanced conv它包含五个平行部署的卷积层。

  1. DEAB添加了CGA:content-guided attention

Content-guided attention 本质是CBAM和 channel shuffle(特征分了两组,进行 channel shuffle) 的结合

五、DAE-Former: Dual Attention-guided Efficient Transformer for Medical Image Segmentation

典型的 UNet 结构,中间的SCCA是Dual attention,由两部分组成:

1) Efficient attention(Restormer计算 CxC 的矩阵是完全一样的)

2) Channel attention

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值