AODNet: All-in-one dehazing network

【20231117】读研期间没有对阅读的文章进行总结,没想到毕业反而有了机会。即日起会对阅读过的文章要点进行梳理记录,希望这一习惯能够坚持下去。
学术的角度:看论文要学习作者如何逻辑严谨的自证
落地的角度:只用看以下六点,创新点是什么、设计思路是什么、用了什么数据、达成什么效果(比前人好多少)、有没有代码、能否复现

ICCV2017、微软亚研院、有代码

Li B, Peng X, Wang Z, et al. Aod-net: All-in-one dehazing network[C]//Proceedings of the IEEE international conference on computer vision. 2017: 4770-4778.
GitHub - weberwcwei/AODnet-by-pytorch: Image Dehaze, Pytorch, An All-in-One Network for Dehazing, AOD-Net

GitHub - walsvid/AOD-Net-PyTorch: Pytorch implementation of AOD-Net : All-in-One Network for Dehazing - ICCV2017

1、Abstract

BR:摘要真的提炼了文章最最最核心的要点,看懂它等于看懂文章 40% 的内容,剩下 60% 在于读懂图表。

  1. reformulate atmospheric scattering model
  2. directly generates the clean image through a light-weight CNN

2、Introduction

BR:以往方式的不足是什么,作者最大的创新是什么。

  1. However, the estimation is not always accurate, and some common pre-processing such as guildfiltering or softmatting will further distort the hazy image generation process [8], causing sub-optimal restoration performance. Moreover, the non-joint estimation of two critical parameters, transmission matrix and atmospheric light,may further amplify the error when applied together.
  2. the major novelty of AOD-Net as the first to optimize the end-to-end pipeline from hazy images to clean images, rather than an intermediate parameter estimation step.

2.1 It is trained on synthesized hazy images, and tested on both synthetic and real natural images.——用的合成有雾图像做训练,论文实验数据和项目落地能一样吗、差距到底会有多大?

2.2 用的评价指标:PSNR、SSIM、视觉效果

2.3 As a lightweight model, AOD-Net has achieved a fast processing speed, costing as low as 0.026 second to process one 480 × 640 image with a single GPU——什么 GPU,26ms 是落地可以接受的速度吗?落地时延的要求是多少?TBD

3、Related Work

BR:通常不需要看这部分内容,记录是因为要做传统方法和深度学习方法的梳理总结。

3.1 传统方法去雾

  1. [23] 通过最大化局部对比度来消除雾霾。
  2. [6] 提出了一种通过估算景物反照率的物理真值方法。
  3. DCP [8],[24] 发现了有效暗信道先验(DCP) 来更可靠地计算传输矩阵。
  4. BCCR [12] 进一步加强了边界约束和上下文正则化,以获得更清晰的恢复图像。
  5. ATM [22] 提出一种自动恢复大气光的加速方法。
  6. CAP [32] 开发了一种颜色衰减先验,并对朦胧图像建立了场景深度的线性模型,然后以监督的方式学习模型参数。

3.2 深度学习方法去雾

  1. [17] MSCNN 多尺度CNN,首先生成一个粗尺度的传输矩阵,然后对其进行细化
  2. [3] 提出了一种可训练的端到端介质传输估计模型,称为DehazeNet。它以模糊图像为输入,输出其传输矩阵结合经验规则估计的全球大气光,通过大气散射模型恢复无雾图像。

上述方案的特点
基于一个认知:要想从有雾图中恢复干净的图片,准确估计介质传输图是关键。(环境光单独计算)
不足:尽管思路是直观且有物理基础的,该方法不直接测量或最小化重建畸变产生次优的图像恢复质量可能性增大,因为每个单独估计步骤中的误差将累积并可能相互放大。

3.3 AODNet

  1. 本文的 AOD-Net 直接输出去雾干净的图像,没有任何中间步骤估计参数。与 [3] 从模糊图像到传输矩阵的端到端学习不同,AOD-Net的完全端到端构建弥合了有雾图像和干净图像之间的最终目标差距

上述方案的特点
基于一个认知:物理模型可以用一种“端到端”的方式来表述,所有的参数都可以用一个统一的模型来估计。

4、Method

BR:放几组公式说明作者的设计思路。坦白说,从我的思维逻辑这些公式包括思路说明更像是实验验证可行后找的解释。实验确实在证明方法的有效性,但写文章更像是一种“自圆其说”,逻辑严谨的自证。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

BR:作者将求解过程转变为求 K(x) 的过程,并且解释了设计 K(x) 的方式比单独计算 t(x) 和 A 的方式效果更好。

  1. Since K (x) is dependent on I (x), we then aim to build an input-adaptive deep model, and train the model by minimizing the reconstruction errors between its output J (x) and the ground truth clean image I(x).
  2. To justify why jointly learning t(x) and A in one is important, we compare the two solutions in experiments (see Section 4 for the synthetic settings). As observed in Figure 3, the baseline tends to overestimate A and cause overexposure visual effects.
  3. AOD-Net clearly produces more realistic lighting conditions and structural details, since the joint estimation of 1/t(x) and A enables them to mutually refine each other. In addition, the inaccurate estimate of other hyperparameters (e.g., the gamma correction), can also be compromised and compensated in the all-in-one formulation.

4.1 dataset

1、the indoor NYU2 Depth Database [21]

2、the Middlebury stereo database [19, 18, 9]

5、Thinking

1、作者在related work中,段落前黑体标注重点,这非常友好!

2、不用看他说的天花乱坠的概念。你就看它提不提供代码,不提供的话不用深入看它怎么实现的,留个印象即可。

3、看用的数据集和评价指标!!

4、我无法用图二主观判断得出本文方法好的依据。

5、图像增强问题定性分析占比很高,感觉接近50%,所以要想落地必须设计一个可定性评估的指标

6、看图说话

控制变量定模型细节

在这里插入图片描述

网络结构

在这里插入图片描述

定量结果

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

定性结果

在这里插入图片描述

在这里插入图片描述
图五:对比了MSCNN,看来它也比较经典吧(或者有代码

在这里插入图片描述
图六:九种方法的对比,怎么都复现的啊,时间管理大师吗!头秃

在这里插入图片描述
图七:仍旧是定性分析,为了比较不同方法效果好坏,针对性关注图片细节:纹理、边缘,作者选的这两张图很棒。

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值