![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
超分网络
文章平均质量分 93
大笨钟47
这个作者很懒,什么都没留下…
展开
-
2017EDSR
概要该文开发了一种增强的深度超分辨率网络(EDSR),其性能超过了目前最先进的SR方法。其的模型的显著性能改进是通过去除传统残差网络中不必要的模块(Batch Normalization)进行优化。在稳定训练(Residual Scaling)过程的同时,通过扩大模型尺寸进一步提高了性能。该文还提出了一种新的多尺度深度超分辨率系统(MDSR)和训练方法,该方法可以在单一模型中重建不同放大因子的高分辨率图像。1. 背景最近,深度神经网络在SR问题中在峰值信号调比(PSNR)方面提供了显著的性能。然而,这原创 2022-03-17 00:32:54 · 3951 阅读 · 0 评论 -
SWinIR概述
1.概要图像恢复是一个长期存在的低水平视觉问题,它旨在从低质量的图像(例如,缩小比例、有噪声和压缩的图像)中恢复高质量的图像。该文提出了一种基于Swin变换的强基线模型SwinIR。SwinIR由浅层特征提取、深度特征提取和高质量的图像重建三部分组成。特别地,深度特征提取模块由几个残余的Swin变压器块(RSTB)组成,每个块都有几个Swin变压器层和一个残余连接。该文对三个具有代表性的任务进行了实验:图像超分辨率(包括经典、轻量级和真实世界的图像超分辨率)、图像去噪(包括灰度和彩色图像去噪)和JPEG压原创 2022-03-01 23:52:55 · 8608 阅读 · 5 评论 -
SRResNet概要
1. 摘要尽管使用更快、更深的卷积神经网络的单图像超分辨率在准确性和速度上取得了突破,但一个核心问题仍在很大程度上未得到解决:当我们对较大的升级因子进行超分辨率时,我们如何恢复更精细的纹理细节?基于优化的超分辨率方法的行为主要是由目标函数的选择所驱动的。最近的工作主要集中在最小化均方重建误差上。由此得到的估计具有很高的峰值信噪比,但它们往往缺乏高频细节,而且在感知上并不令人满意,因为它们无法匹配在更高分辨率下的预期保真度。在本文中,我们提出了SRGANSRGANSRGAN,一种用于图像超分辨率(SR)的生原创 2022-02-23 00:04:00 · 11257 阅读 · 0 评论 -
Spatial Pyramid Pooling
1. 摘要现有的深度卷积神经网络(CNNs)需要一个固定大小的(例如,224×224)的输入图像。这个要求是“人工的”,可能会降低对任意大小/尺度的图像或子图像的识别精度。在这项工作中,我们为网络配备了另一种池化策略,即“空间金字塔池化”,以消除上述需求。新的网络结构,称为SPP-net,可以生成一个固定长度的表示,而不管图像的大小/规模。金字塔池对对象变形也具有鲁棒性。有了这些优点,SPP-net一般应该改进所有基于cnn的图像分类方法。2. 介绍我们正在目睹我们的视觉社区的一个快速、革命性的变化,原创 2022-02-06 11:28:24 · 2609 阅读 · 0 评论 -
Accurate Image Super-Resolution Using Very Deep Convolutional Networks(VDSR)
摘要该方法使用了一个非常深的卷积网络,灵感来自于Imagenet分类。该论文发现,网络深度的增加显示了精度的显著提高。最终的模型使用了20个权重层。通过在深度网络结构中多次级联小滤波器,有效地利用了大图像区域上的上下文信息。然而,在非常深的网络中,收敛速度成为训练过程中的一个关键问题。该文提出了一个简单而有效的训练程序,只学习残差,并使用极高的学习率(比SRCNN高10410^4104倍,SRCNN通过可调梯度剪辑)。1.介绍虽然SRCNN成功地将深度学习技术引入了超分辨率(SR)问题,但发现其局限性原创 2022-01-15 09:12:41 · 602 阅读 · 0 评论 -
AdderSR
1. 摘要该文利用加法器神经网络(AdderNets)研究了单幅图像的超分辨率问题。与卷积神经网络相比,AdderNets利用加法来计算输出特征,从而避免了传统乘法的大量能耗。然而,由于计算范式的不同,很难将addernet在大规模图像分类上的成功直接继承到图像超分辨率任务中。具体来说,加法器操作不能很容易地学习身份映射,而这是图像处理任务的关键。此外,AdderNets还不能保证高通滤波器的功能。为此,该文深入分析了加法器操作与身份映射和插入快捷方式之间的关系,以提高使用加法器网络的SR模型的性能。然后原创 2022-01-12 23:27:18 · 1541 阅读 · 0 评论