多功能的图像超分辨模型:用于盲图像超分辨的非对称卷积神经网络

哈工大、台清大和港中大合作研究提出了一种非对称卷积神经网络(ACNet),用于盲图像超分辨。ACNet通过非对称卷积增强局部特征,结合低频和高频特征,解决固定缩放因子限制,实现高效处理SISR、盲超分辨和盲噪声的盲超分辨任务,表现出色。
摘要由CSDN通过智能技术生成

哈工大、台湾国立清华大学与香港中文大学的研究人员联合提出用于盲图像超分辨的非对称卷积网络,该文收录于IEEE Transactions on Systems, Man, and Cybernetics: Systems (IEEE TSMC)期刊。

该文能通过一个模型解决固定缩放因子图像超分辨、盲图像超分辨问题及解决包含盲噪声的盲超分辨问题,在数字设备上具有良好的应用价值。

题目:Asymmetric CNN for image super-resolution

作者:Chunwei Tian, Yong Xu, Wangmeng Zuo, Chia-Wen Lin and David Zhang

单位:哈工大、台湾国立清华大学于香港中文大学

深度卷积神经网络在过去5年内已经被广泛应用到底层视觉领域。已有大部分方法是根据不同应用的属性,以设计适合网络结构。然而,这些结构都通过平等对待所有像素点的方式融合不同特征,以提高目标任务的性能,它们忽视局部像素点的作用而导致低的训练效率。

此外,已有方法都是针对固定缩放因子来训练超分辨模型,这受限于真实的低分辨图像。对此,本文提出一种用于图像超分辨的非对称的卷积神经网络(ACNet)。

首先,ACNet通过一维的非对称卷积结构增强方核作用,以增强局部显著性特征作用并提升训练效率和SR性能;其次,ACNet充分利用低频的网络层次特征解决深度网络长期依赖问题,同时深度特征和宽度特征结合使得获得的低频特征更鲁棒。

接着,ACNet通过一组并行的上采样操作实现盲超分辨模型及盲噪声的盲超

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值