Contents
(预计12月15日之前更完。。。)
1. Introduction
这是一篇19年的文章,成文于2018,所以包含了2018及之前的超分网络汇总。文章主体结构如下:
-
关于神经网络的结构效率(第3部分);
-
优化(损失)函数的选择对于网络学习效率的影响(第4部分)。
在每部分,首先选择一个baseline,然后围绕baseline的各项缺点进行对比分析。
The strong capacity of DL to address substantial unstructured data is attributable to two main contributors: the development of efficient computing hardware and the advancement of sophisticated algorithms.
之前的SISR工作主要有以下两种缺陷:
- 从LR到HR空间的映射没有一个清晰的定义;
- 用庞大的数据建立一个高维的映射关系的效率低下。
此时基于DL的方法的高效特征提取能力以及出色的表现,理所当然就应用到了SISR领域。
在SISR中,将DL和具体应用的领域知识相结合是至关重要的。而这种结合,就体现在我们刚才提到的网络结构和优化目标的构建上,这也是作者如此展开综述的原因。
2. Background
从HR获取LR的方法:
可以看到,上述处理用了3种方法,分别是模糊化、缩放、加噪声。一般常用的处理过程可以只用其中一种也可都用。
主流的超分方法分为三大类:基于插值、基于重建、基于学习(样例)。而基于学习的方法又可分为传统的机器学习和深度学习两种,我们着重介绍DL。
人工神经网络ANN的发展历史:感知算法—>多层感知机—>CNN—>RNN,后来ANN进入深度神经网络阶段DNN,包括:受限玻尔兹曼机(RBM)、深度玻尔兹曼机(DBM)、变分自编码器(VAE)、生成对抗网络(GAN)。