Hallucinating Very Low-Resolution Unaligned and Noisy Face Images by Transformative Discriminative Autoencoders
Xin Yu, Fatih Porikli
这篇文章是Xin Yu发表在2017年CVPR上的,主要亮点就是论文提出的方法TDAE的训练数据不再需要是对齐的和已经去除噪声的,也不需要估计噪声等级,依旧可以取得很好的8倍超分辨率效果。
论文的工作是这样的,先将低分辨率图像LR输入到一个解码器中得到一个HR1,以实现对图像的上采样和去噪功能,然后再将HR1输入到一个编码网路将其投影到低分辨率的对齐无噪声的网络LR1(直白地说,这一部分的编码器的功能就是下采样HR1并且将其对齐。),最后再将得到的LR1输入到另一个解码网络(该解码网络与上一个解码网络具有同样的网络结构)得到对齐的无噪声的超分辨率图像SR。整个网络结构称为TDAE。还有很重要的一点就是论文的解码器的结构类似于上一篇URDGN的结构,是由超分辨率网络和判别器两部分组成的。
就是一个超分辨率下采样超分辨率的过程,但是有两个问题(1)第一次超分辨率之后的结果再下采样然后再超分辨率总觉得是在做重复的工作(2)如果这样的效果好,是不是可以理解为继续执行下采样超分辨率下采样超分辨率也是有可能获得更好地结果的。