Semantically Contrastive Learning for Low-light Image Enhancement 论文阅读笔记

在这里插入图片描述

这是AAAI2022的一篇无监督暗图增强论文

  • introduction中提到一个重要观点:前景和背景的增强策略需要区别对待,而语义信息可以辅助进行区域的辨别,从而有利于统一物体区域内部的亮度一致性(我的理解是,其实也和空间、景深有关,在简单的光源分布下相同景深相邻区域的物体通常具有相同的照度,而同一物体区域内的像素通常具有相同的景深,并且一般还有相近的颜色,从而具有相近的亮度)。
  • 文章的贡献之一是提出了一个semantic brightness consitency loss,可以利用高层任务的监督提高底层任务的效果,并且增强结果在高层任务上也有准确率上的提升。
  • 网络分为三个模块和三个损失,三个模块分别是增强模块(Unet结构,Zero-DCE曲线预测)、语义分割模块(DeepLabv3+)和特征提取模块(VGG16);三个损失分别是对比学习损失、semantic brightness consitency loss和特征保留损失。

对比学习部分

  • 对比学习所用的正例是正常光照图片,负例是过曝和欠曝光图片,并且全部是不成对的。通过pull增强结果与正例之间的距离和push增强结构与负例之间的距离来训练增强网络。计算距离所用的特征是图片经过VGG16提取的各层特征(也就是说每层卷积产生的特征图都要用到)进行进一步计算自相关的结果,比如A图的第 l l l层特征各有 C C C个通道,那么每两个通道之间算内积可以得到一个自相关矩阵,大小为 C × C C\times C C×C,这个矩阵就是 G l G_l Gl,VGG一共有 L L L层,所以就有 L L L个自相关矩阵。将增强结果的自相关矩阵集合与正例的自相关矩阵集合、负例的自相关矩阵集合之间算一个triple loss,d是距离函数
    在这里插入图片描述
  • 训练的时候,从SICE数据集的Part部分选取360张正常曝光的图片、360张欠曝光的图片、360张过曝光的图片,并在训练过程中随机匹配。

语义分割部分

  • 损失函数如下:
    在这里插入图片描述
  • 其中 B s B_s Bs表示第 s s s类的区域内像素的亮度均值:
    在这里插入图片描述
  • p s p_s ps表示GT的类别, q s q_s qs表示增强结果在语义分割网络中预测的类别。这部分训练使用的是Cityscapes数据集中的暗图部分。

特征保持损失

  • 其实就是增强前后图片的特征图(应该是指在VGG中的)之间的距离:
    在这里插入图片描述

其它

  • 此外还有Zero-DCE中的颜色保持损失和平滑损失
    在这里插入图片描述

完整网络结构

在这里插入图片描述

训练细节

  • 语义分割网络首先在Cityscapes数据集上训练,VGG首先在ImageNet上训练,然后fix这两个网络的参数,只训练enhancement网络。输入的大小resize为384x384,epoch为50,batch size为2(看起来还挺好训练的)。

实验结果

  • 对比了在多个数据集上的user study、NIQE和UN指标:
    在这里插入图片描述
  • 对比了在SICE上的PSNR和SSIM
    在这里插入图片描述
  • 对比了在Cityscapes上提高的mIOU:
    在这里插入图片描述
  • 4
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Semantic Analysis with Context Models • Task1: Model the context of a frequent pattern Based on the Context Model… • Task2: Extract strongest context indicators • Task3: Extract representative transactions • Task4: Extract semantically similar patterns 使用上下文模型进行语义分析 • 任务1:建模频繁模式的上下文,基于上下文模型… • 任务2:提取最强的上下文指标 • 任务3:提取代表性交易数据 • 任务4:提取语义相似的模式 在数据挖掘和机器学习中,语义分析是一项重要的任务。使用上下文模型进行语义分析是一种常用的方法。其中,频繁模式挖掘是语义分析的一个重要应用领域。通过建模频繁模式的上下文,我们可以更好地理解这些模式所代表的含义和作用。 任务1:建模频繁模式的上下文,基于上下文模型。上下文模型是一种描述数据集中各个数据点之间关系的模型。通过建立上下文模型,我们可以确定频繁模式的上下文,并且可以帮助我们更好地理解这些模式所代表的含义和作用。 任务2:提取最强的上下文指标。在上下文模型中,我们可以使用各种指标来描述数据点之间的关系,例如相似度、距离和相关性等。通过提取最强的上下文指标,我们可以更好地理解频繁模式的上下文,并且可以帮助我们更好地理解这些模式所代表的含义和作用。 任务3:提取代表性交易数据。在频繁模式挖掘中,交易数据是指包含频繁模式的数据记录。通过提取代表性的交易数据,我们可以更好地理解频繁模式所代表的含义和作用,并且可以帮助我们更好地进行模式分析。 任务4:提取语义相似的模式。在频繁模式挖掘中,我们通常会发现多个频繁模式之间存在语义上的相似性。通过提取语义相似的模式,我们可以更好地理解数据集中的规律和关联性,并且可以帮助我们更好地进行模式分析。 综上所述,使用上下文模型进行语义分析是一种有效的方法,可以帮助我们更好地理解数据集中的规律和关联性,特别是在频繁模式挖掘中。任务1到任务4是使用上下文模型进行语义分析的关键步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值