近期在跑自己的论文模型所以论文看的比较少,博客也没怎么更,。。。
这篇论文是今年cvpr的一篇超分论文,提出了传统的残差网络并未充分利用各层残差信息,因此该文章提出了一种将各层残差信息经过跳转链接直接传到后层的网络结构(这里想吐槽一下。。。这跟密集残差结构真的很像。。。)
总体网络结构也很简单
另外文章里提出了一种增强的空间注意力机制,并把注意力放在上文中的RB块中,该注意力机制首先通过1*1conv进行降维,后通过步长卷积(其实就是一个步长为2的卷积。。。此处论文中并未说明步长卷积的卷积核大小,代码也还未公布)增大感受野,相对于步长为1的同等大小的卷积核来说,在进行下一步池化的过程中,步长为2的卷积核确实可以为池化过程提供更大的感受野(可以理解为用步长为2的卷积核卷积图像得到的特征图相对于步长为1的卷积核卷积出的特征图更小更稀疏,因此在池化时相对的起到了增大感受野的目的),另外此处是为了使注意力能够更好的注意到图像的整体信息,因此才要增大感受野范围,后通过一系列卷积非线性映射,最后上采样回原图大小形成空间注意力图,通过sigmoid归一化后与原图相乘(这种注意力这几年也不少了。。所以感觉创新性也比较低。。)。
Residual Feature Aggregation Network for Image Super-Resolution
最新推荐文章于 2024-04-22 20:44:03 发布