Semantically Contrastive Learning for Low-light Image Enhancement 论文阅读笔记

在这里插入图片描述

这是AAAI2022的一篇无监督暗图增强论文

  • introduction中提到一个重要观点:前景和背景的增强策略需要区别对待,而语义信息可以辅助进行区域的辨别,从而有利于统一物体区域内部的亮度一致性(我的理解是,其实也和空间、景深有关,在简单的光源分布下相同景深相邻区域的物体通常具有相同的照度,而同一物体区域内的像素通常具有相同的景深,并且一般还有相近的颜色,从而具有相近的亮度)。
  • 文章的贡献之一是提出了一个semantic brightness consitency loss,可以利用高层任务的监督提高底层任务的效果,并且增强结果在高层任务上也有准确率上的提升。
  • 网络分为三个模块和三个损失,三个模块分别是增强模块(Unet结构,Zero-DCE曲线预测)、语义分割模块(DeepLabv3+)和特征提取模块(VGG16);三个损失分别是对比学习损失、semantic brightness consitency loss和特征保留损失。

对比学习部分

  • 对比学习所用的正例是正常光照图片,负例是过曝和欠曝光图片,并且全部是不成对的。通过pull增强结果与正例之间的距离和push增强结构与负例之间的距离来训练增强网络。计算距离所用的特征是图片经过VGG16提取的各层特征(也就是说每层卷积产生的特征图都要用到)进行进一步计算自相关的结果,比如A图的第 l l l层特征各有 C C C个通道,那么每两个通道之间算内积可以得到一个自相关矩阵,大小为 C × C C\times C C×C,这个矩阵就是 G l G_l Gl,VGG一共有 L L L层,所以就有 L L L个自相关矩阵。将增强结果的自相关矩阵集合与正例的自相关矩阵集合、负例的自相关矩阵集合之间算一个triple loss,d是距离函数
    在这里插入图片描述
  • 训练的时候,从SICE数据集的Part部分选取360张正常曝光的图片、360张欠曝光的图片、360张过曝光的图片,并在训练过程中随机匹配。

语义分割部分

  • 损失函数如下:
    在这里插入图片描述
  • 其中 B s B_s Bs表示第 s s s类的区域内像素的亮度均值:
    在这里插入图片描述
  • p s p_s ps表示GT的类别, q s q_s qs表示增强结果在语义分割网络中预测的类别。这部分训练使用的是Cityscapes数据集中的暗图部分。

特征保持损失

  • 其实就是增强前后图片的特征图(应该是指在VGG中的)之间的距离:
    在这里插入图片描述

其它

  • 此外还有Zero-DCE中的颜色保持损失和平滑损失
    在这里插入图片描述

完整网络结构

在这里插入图片描述

训练细节

  • 语义分割网络首先在Cityscapes数据集上训练,VGG首先在ImageNet上训练,然后fix这两个网络的参数,只训练enhancement网络。输入的大小resize为384x384,epoch为50,batch size为2(看起来还挺好训练的)。

实验结果

  • 对比了在多个数据集上的user study、NIQE和UN指标:
    在这里插入图片描述
  • 对比了在SICE上的PSNR和SSIM
    在这里插入图片描述
  • 对比了在Cityscapes上提高的mIOU:
    在这里插入图片描述
  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值