增强算法一定有效吗? 无需增强解决低光照场景下的目标检测问题(ICCV 2021)...

点击上方“小白学视觉”,选择加"星标"或“置顶”
重磅干货,第一时间送达

编者荐语

 

针对暗光场景下的high-level vision task中存在的一些问题:1.图像质量差 2.图像增强手段容易失效 3.数据集规模小,作者提出了一种新的多任务自动编码转换(MAET)模型。

作者丨信息门下奶狗@知乎

链接丨https://www.zhihu.com/question/493246711/answer/2209905715


ICCV 2021: Multitask AET with Orthogonal Tangent Regularity for Dark Object Detection,一篇针对于暗光场景目标检测任务的paper。

纯粹的low-level vision task已经有很多好的工作了,推荐一下自己今年的ICCV 2021的paper,暗光场景在增强之外还有高层次视觉任务可以做,做的是暗光场景下的high-level-vision task目标检测任务。

暗光场景下的high-level vision task,比如检测分割分类这种,往往受限于三个显著的缺点,第一是环境中的光子数量很少,而且相机中的in-camra noise很大。第二是直接用图像增强手段,增强的评价指标是PSNR和SSIM(人眼视觉),而High-level-vision task的评价指标是mAP和IOU这类(机器视觉),导致了评价指标不一致性。第三是暗光场景下的数据集很少,无法像COCO,ImageNet那样有大规模的数据集训练。

da115ae09dd7f2a1ee84de4100b8eee7.jpeg

图1. 暗光增强方法的效果往往容易失效。

我2021年的ICCV 2021 paper就是为了解决以上问题而写出,无需增强,直接训练,也可以达到SOTA 效果。写贴一下论文和代码地址:

论文:Multitask AET with Orthogonal Tangent Regularity for Dark Object Detection

论文链接:https://openaccess.thecvf.com/content/ICCV2021/papers/Cui_Multitask_AET_With_Orthogonal_Tangent_Regularity_for_Dark_Object_Detection_ICCV_2021_paper.pdf

代码地址:https://github.com/cuiziteng/ICCV_MAET

在这篇工作中,针对上述的三个问题(1.图像质量差 2.图像增强手段容易失效 3.数据集规模小)。我们采用了另辟蹊径的手段:没有直接把enhancement应用到图像上,而是采用传统相机图像信号处理(image signal processor, ISP)的方法,把大规模数据集(如COCO)上面的正常图像转化为暗光图像,这里面涉及到把图像从RGB空间转换到RAW空间(Unprocess过程),并且在RAW空间上完成了Low-light Degradation,最终再通过一个正向的ISP过程把RAW还原为暗光RGB。

1cd0e1ccfc9c65851d0fe95bf661ff2b.jpeg

图2.暗光图像合成流程

其次,我们把正常图像和其合成的暗光图像一起输入到一个孪生神经网络里面进行自监督学习训练,我们采用的自监督学习方法是AET (Auto-Encoding Transformation, CVPR 2019)。我们通过在backbone后面接入的变换预测decoder来预测光照变换中涉及的参数从而完成自监督训练。我们采用检测数据集MS COCO来完成暗光图像的合成步骤,并且参与自监督training,在检测网络的backbone(E)上面同时接入了目标检测的decoder(Dobj)和AET变换预测的decoder(Ddeg),训练的时候同时优化E, Dobj和Ddeg的参数,进行一个multi-task的训练学习,并且在后续真实数据集上(EXDark ,UG2+ Dark Face)上面直接进行fine-tuing。

af4d585ed9735a60c6b04a5ce24148d8.jpeg

图3.同时完成自监督和合成数据集上的目标检测

实验部分我们在EXDark 和 UG2+人脸检测数据集上都做了探究,只用暗光图像作为输入,不需要任何预处理和辅助的增强手段。在对比实验的增强手段中,无监督增强手段(如Zero-DCE)更适合暗光目标检测任务,这也许是因为无监督方法的泛化性能更好。最终我们的方法在EXDark和UG2+数据集都取得了理想的效果。

78029a2c32f08591a2b6a4ed231cbf71.jpeg

图4.EXDark数据集实验效果图,(a)是原始暗光图(b,c,d)是不同增强手段(e)是原始暗光图输入到MAET中

值得一提的是,我们后续在BMVC 2022上做了一篇Transformer来完成暗光增强新论文,借鉴目标检测中的DETR结构,利用了attention query机制来学习ISP流程的相关参数,并且在这篇我们研究中我们同时探究了暗光增强,暗光场景下的目标检测与暗光场景下的语义分割任务,并且这篇的结构所需参数量和速度都十分轻量,链接如下:

You Only Need 90K Parameters to Adapt Light: A Light Weight Transformer for Image Enhancement and Exposure Correction (BMVC 2022)

https://arxiv.org/abs/2205.14871

https://github.com/cuiziteng/Illumination-Adaptive-Transformer

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值