题目:ATMFN: Adaptive-threshold-based Multi-modelFusion Network for Compressed Face Hallucination
中文:用于压缩幻觉的基于自适应阈值的多模型融合网络
摘要
- 尽管最近在幻觉方面取得了长足的进步,【缺点】但
基于单一深度学习框架的现有方法很难在复杂退化的情况下从小脸部令人满意地提供面部特征
。本文提出了一种用于压缩人脸幻觉的基于自适应阈值的多模型融合网络(ATMFN),该网络融合了不同的深度学习模型,以充分利用其各自的学习优势
。首先,我们构造基于CNN,GAN和RNN的基础超级分解程序,以产生候选SR结果。此外,提出了关注子网络以学习捕获候选SR脸部最具信息分量的单个融合权重矩阵。特别是,融合矩阵和基础网络的超参数以端到端的方式一起优化,以驱动它们进行协作学习。最后,采用基于阈值的融合和重建模块来开发候选人的互补性,从而生成高质量的人脸图像。在基准面部数据集和真实世界样本上进行的大量实验表明,在定量指标和视觉效果方面,我们的模型优于最新的SR方法。代码和配置在https://github.com/kuihua/ATMFN上发布。 - 索引术语-基于阈值的融合网络,注意力机制,整体学习,面部压缩幻觉
背景:基于单一深度学习框架的现有方法在复杂情况下不适用。
方法:基于自适应阈值的多模型融合网络(ATMFN)**,该网络融合了不同的深度学习模型,以充分利用其各自的学习优势
结论:在定量指标和视觉效果方面,我们的模型优于最新的SR方法
引言
-
幻觉[1],作为特定领域的图像SR,在过去的十年中引起了广泛的关注。为了建模低分辨率(LR)和高分辨率(HR)脸部图像之间的映射关系,传统方法都尝试利用具有子空间约束的全局先验[2],[3],[4],[5]或具有局部先验条件的局部先验。稀疏性[6],协作[7]和局部性[8],[9]约束。但是,
这些方法的表示能力不足,导致在远距离成像和压缩等复合降解条件下进行大规模SR任务时性能较差