哈工大、台湾国立清华大学与香港中文大学的研究人员联合提出用于盲图像超分辨的非对称卷积网络,该文收录于IEEE Transactions on Systems, Man, and Cybernetics: Systems (IEEE TSMC)期刊。
该文能通过一个模型解决固定缩放因子图像超分辨、盲图像超分辨问题及解决包含盲噪声的盲超分辨问题,在数字设备上具有良好的应用价值。
题目:Asymmetric CNN for image super-resolution
作者:Chunwei Tian, Yong Xu, Wangmeng Zuo, Chia-Wen Lin and David Zhang
单位:哈工大、台湾国立清华大学于香港中文大学
深度卷积神经网络在过去5年内已经被广泛应用到底层视觉领域。已有大部分方法是根据不同应用的属性,以设计适合网络结构。然而,这些结构都通过平等对待所有像素点的方式融合不同特征,以提高目标任务的性能,它们忽视局部像素点的作用而导致低的训练效率。
此外,已有方法都是针对固定缩放因子来训练超分辨模型,这受限于真实的低分辨图像。对此,本文提出一种用于图像超分辨的非对称的卷积神经网络(ACNet)。
首先,ACNet通过一维的非对称卷积结构增强方核作用,以增强局部显著性特征作用并提升训练效率和SR性能;其次,ACNet充分利用低频的网络层次特征解决深度网络长期依赖问题,同时深度特征和宽度特征结合使得获得的低频特征更鲁棒。
接着,ACNet通过一组并行的上采样操作实现盲超分辨模型及盲噪声的盲超