图像超分辨率 EnhanceNet-2017

论文地址:https://arxiv.org/pdf/1612.07919.pdf

EnhanceNet注重纹理细节,在文中使用四种损失函数

分别是:

MSE loss

感知损失

对抗损失

以上三种损失参考SRGAN:https://blog.csdn.net/weixin_41798111/article/details/84979236

Texture matching loss纹理匹配损失

\phi就是VGG特征提取到的信息,和感知损失一样。G()是Gram矩阵

 Given a target texture image, the output image is generated iteratively by matching statistics extracted from a pre-trained network to the target texture.

在给定目标纹理图像的情况下,通过将预处理网络中提取的统计信息与目标纹理进行匹配,生成输出图像。

由于该方法基于迭代优化,因此速度较慢,且仅在测试时提供目标纹理时才有效。

对SISR使用风格转换损失

并训练一个网络将全局纹理特征合成到图像中(类似于图像风格转换思想),在训练过程中基于patch来计算纹理匹配损失,保证纹理信息在局部上相同。实验表明采用16*16的局部纹理特征效果较好,如果采用整张图像的纹理特征导致纹理平均化,效果较差。

(至于这个纹理匹配损失个人还是没有理解十分清楚,大概是vgg特征提取后经过Gram矩阵,计算损失。在计算损失的过程中是以patch来计算的,因为若是计算整张图像的纹理匹配损失则会因为平均化导致匹配到的纹理特征与真实纹理不同)

 

文中实验对这四种损失进行分别讨论。

网络结构:

采用没有BN层的10个残差块,最近邻上采样方式,学习插值后的图像与real images之间的残差(也就是output images=残差+LR_4X插值后的图像)

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值