这是一篇CVPR2018的论文,讲的是去照片的去模糊化,包括手抖,快速移动等原因造成的模糊。作者抛弃了创造性地提出的基于res-net的end to end的方法,该方法与semantic segmentation等dense prediction类似,主要的亮点有一下两个:
1.采用multi-scale图片作为输入(将原始图片通过downsample从而得到size变小的图片),将小图片的预测结通过unconv与中图片的原始图片concatenate在一起作为中图片的模型输入,同理将中图片的预测与大图片的原图结合在一起作为大图片的模型输入。
这部分的损失函数为:
2.作者同时使用gan的思想,用D来判别是模糊去燥后的图片还是原始清晰的图片。
最后将两个损失函数加权合并得到最后的损失函数:
下面是作者的实验结果:
最后作者还比较了加了Discrimitive的loss与没有加的区别:
从结果可以看出加了D之后PSNR反而下降了,而SSIM得到一定提升。作者认为这样可以产生更加真实的图片以及保存更好地结构特征。