【论文笔记】a Light Weight Transformer for Image Enhancement and Exposure Correction

摘要

  • 现实世界中具有挑战性的照明条件(低光,曝光不足和过度曝光)不仅会造成不愉快的视觉外观,而且会污染计算机视觉任务。
  • 相机采集原始rgb数据后,通过图像信号处理器(ISP)呈现标准的sRGB图像。通过将ISP管道分解为局部和全局图像组件,我们提出了一种轻量级的快速照明自适应转换器(IAT),可以从低光或过曝光条件下恢复正常照明的sRGB图像。
  • 具体来说,IAT使用注意力查询来表示和调整与isp相关的参数,如色彩校正、伽马校正。仅使用~ 90k个参数和~ 0.004s的处理速度,我们的IAT在基准低光增强和曝光校正数据集上始终实现优于最先进(SOTA)的性能。实验性能表明,我们的IAT在各种光照条件下显著增强了目标检测和语义分割任务。

动机

  • 计算机视觉在拍摄质量良好的图像和视频上取得了巨大的成功。然而,现实世界中不断变化的光线条件对人类的视觉表现和下游任务(语义分割和目标检测)提出了挑战。当前,有光线不足、传感器原因导致的图像饱和以及光线不足和过爆可能同时存在。虽然很多研究都在阐述如何改善以人为导向的视觉感知,但也有一些方法通过提高高级别任务对低光和过度曝光条件的鲁棒性来增强它们。

现状

  • 弱光增强、曝光校正已被提出来处理恶劣的光照条件。弱光增强方法在抑制伴随噪声的同时恢复细节。曝光校正方法主要是调整欠曝光/过曝光图像,在短曝光/长曝光时间下重建清晰图像。

贡献

  • 提出了一个快速和轻量级的框架,照明自适应变压器(照明自适应变压器,IAT),以适应现实世界中具有挑战性的光照条件,既可以处理弱光增强任务,也可以处理曝光校正任务。
  • 提出了一种新的变压器式结构来估计isp相关参数,以融合目标sRGB图像,其中可学习的注意查询被用于关注整个图像,我们还将层范数替换为新的轻归一化,以更好地处理低级视觉任务。
  • 在3个低级任务和3个高级任务的多个真实数据集上的大量实验证明了IAT方法优于SOTA方法的性能。IAT重量轻,便于移动设备,模型参数只有0.09M,每张图像处理时间为0.004秒。我们将在发布时发布源代码。

模型

IAT: Illumination Adaptive Transformer

在这里插入图片描述

Pixel-wise Enhancement Module (PEM) and Global Prediction Module (GPM).

在这里插入图片描述

名词

  • 图像评价指标:PSNR 、SSIM、LPIPS
    • PSNR峰值信噪比 :是基于对应像素点间的误差,即基于误差敏感的图像质量评价,由于并未考虑到人眼的视觉特性(人眼对空间频率较低的对比差异敏感度较高,人眼对亮度对比差异的敏感度较色度高,人眼对一个 区域的感知结果会受到其周围邻近区域的影响等),因而经常出现评价结果与人的主观感觉不一致的情况。必须满足两张图像的size要完全一样。
    • SSIM(结构相似性):可以衡量图片的失真程度,也可以衡量两张图片的相似程度。与MSE和PSNR衡量绝对误差不同,SSIM是感知模型,即更符合人眼的直观感受。
    • LPIPS(感知损失):基于学习的感知相似度度量LPIPS 比传统方法(比如L2/PSNR, SSIM, FSIM)更符合人类的感知情况。来源于论文《The Unreasonable Effectiveness of Deep Features as a Perceptual Metric》
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
“你只需要90000个参数即可适应光:一款轻量级的TransformerLight:一款轻量级的Transformer是指在模型参数数量较少的情况下,实现了对光照的适应能力。一般来说,Transformer模型通常需要巨大的参数数量来实现高质量的自然语言处理任务。然而,对于特定的任务,比如对光照的适应,研究人员最近提出了一种轻量级的Transformer模型,只需要90000个参数即可实现。 这个模型的轻量级设计主要集中在两个方面:模型架构和参数数量。首先,模型架构方面,轻量级Transformer采用了一种精简的结构,去掉了一些传统Transformer中的冗余模块。其次,在参数数量方面,研究人员通过对参数维度和层数进行有效的优化,实现了模型的轻量化。因此,这个轻量级Transformer仅需要90000个参数,就能够达到对光照的适应能力。 这个轻量级Transformer的适应光照的能力主要体现在两个方面:特征提取和模型自适应。首先,在特征提取方面,轻量级Transformer能够从输入的光照图像中提取出有效的特征表示,用于后续的任务处理。其次,在模型自适应方面,轻量级Transformer能够动态地学习并调整网络参数,从而更好地适应不同光照条件下的输入数据,提高模型的性能。 总之,通过轻量级的设计和精简的参数数量,这个仅需要90000个参数的轻量级Transformer模型能够有效地适应光照。这种模型设计的优势在于在保持良好性能的同时,减少了模型的复杂性和计算资源的需求,为光照相关任务的研究和应用提供了一种新的解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值