【AAAI2023】Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method
该论文得创新点主要有三个,第一个(架构如下图1)是解决Transformer计算复杂度太大的问题,将注意力的计算改在了H和W维度上,第一步相似性计算的是HxH,叫做 height-axis attention,第二步相似性计算的是 WxW,叫做 width-axis attention。第二个是改进了FFN(图2),使用双门控机制增加表示能力。第三个(图3)就是增加了计算层与层之间关系的交叉注意力机制。
![](https://img-blog.csdnimg.cn/img_convert/0e155ba22c9695bca0977f40780f573b.webp?x-oss-process=image/format,png)
图1
![](https://img-blog.csdnimg.cn/img_convert/a81e3ac93e0c23b9f7cdeef39784a362.png)
图2
![](https://img-blog.csdnimg.cn/img_convert/d9c991231a430957785d518fcaa72b62.webp?x-oss-process=image/format,png)
图3
【NeurIPS2022】ShuffleMixer: An Efficient ConvNet for Image Super-Resolution
设计了通道分组模块,将其中的一组特征沿通道维度打乱,然后两个组shuffle,以便更好的特征提取。
![](https://img-blog.csdnimg.cn/img_convert/fd29bde1f0265a822c80c42777e5034a.png)
提供了一个新的FFN结构
![](https://img-blog.csdnimg.cn/img_convert/000ed9cf5e39e96c929d64b3787fbc9b.png)
【ARXIV2212】A Close Look at Spatial Modeling: From Attention to Convolution
论文中提出了两个新奇的问题:注意力中的Query与注意力图无关、发现了只有几个patch发挥作用。因此改写了注意力计算机制并且和卷积结合。
![](https://img-blog.csdnimg.cn/img_convert/3c5ddc4c0b1c730fb34f4b37869cd93e.png)
【ARXIV2301】DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention
使用DEConv将精心设计的先验集成到普通卷积层中,并且设计了content-guided attention模块,以从粗到细的方式获得输入特征的每个通道的专属SIM(spatial importance map),同时充分混合信道注意力权重和空间注意力权重,以保证信息交互。
![](https://img-blog.csdnimg.cn/img_convert/5d77a049eaa9b1b5831be32d5c0526cf.png)
![](https://img-blog.csdnimg.cn/img_convert/49ee7a72e0c678645af4b2e80e989424.png)
【ARXIV2212】DAE-Former: Dual Attention-guided Efficient Transformer for Medical Image Segmentation
论文主要解决的问题是VIT应用在高分辨率上复杂度太高,因此串联高效注意力和通道注意力,并且设计了类U-Net结构,提出交叉注意力(SCCA),为网络提供多尺度信息。
![](https://img-blog.csdnimg.cn/img_convert/8542ea49a9b5895477e8425c9a4c1f7e.png)
高效注意力:论文 Efficient attention 中 利用常规自注意力产生冗余上下文矩阵提出了一种计算自注意力过程的有效方法 ,既当应用 ρq 和 ρk 时,模块会产生等效的点积注意力输出,它们是 softmax 归一化函数。
![](https://img-blog.csdnimg.cn/img_convert/ef7dee0b031c618707c21bd462fd8b9c.png)