基于生成对抗网络的遥感图像超分辨率重建

本文提出了一种基于生成对抗网络(GAN)的遥感图像超分辨率重建方法,通过不同比例尺获取清晰和模糊图像作为训练数据集,避免了传统降采样带来的信息损失。采用深度残差块的GAN模型和相对判别器损失函数,以及结合上下文损失和特征空间位置信息的优化策略,提高了超分辨率效果。实验表明,这种方法在峰值信噪比(PSNR)、结构相似性(SSIM)和平均梯度(AG)指标上有所提升,并能产生更佳的视觉效果。
摘要由CSDN通过智能技术生成

摘要: 近年来有不少基于深度学习的单幅遥感图像超分辨率重建方法,虽然在超分辨率的各项指标上都有所提升,但通过人眼观察的超分辨率效果却仍不明显.此前方法在制作低分辨率图像过程中采用的降采样会带来部分信息损失,为了避免此类问题,本文以在数据集部分通过用不同比例尺得到清晰和模糊两种分辨率的遥感图像作为训练数据集对,有效避免了由于降采样带来的原图信息损失.在主网络部分运用了一种基于深度残差块的generative adversarial network(GAN)图像超分辨率模型,生成网络部分生成超分辨率图像,对抗网络部分对生成网络生成图像的逼真程度进行判断并反馈到生成网络中.在损失函数部分,为了减少由于特征匹配错误产生的不良影响,本文在上下文损失函数(contextual loss function)的基础上添加了图像特征之间的空间位置信息,并采用相对判别器来判断图片相对真实性,优化了超分辨率效果.通过在NWPU-RESISC45数据集上进行实验验证,本文提出的方法在峰值信噪比(peak signal to noise ratio,PSNR)、结构相似性(structural similarity,SSIM)和平均梯度(average gradient,AG)三项指标上有了较明显的提升,并可通过人眼观测到网络输出良好的超分辨率效果图.

关键词: 超分辨率    生成对抗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

罗伯特之技术屋

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值