论文阅读:GridDehazeNet: Attention-Based Multi-Scale Network for Image Dehazing

论文标题
论文及代码详见:https://xiaohongliu.ca/GridDehazeNet/

1. 摘要

文章提出了一种端到端可训练的CNN,即GridDehazeNet。GridDehazeNet包含三个模块:预处理模块,主干模块和后处理模块。可训练的预处理模块相比手工选择的预处理方法,可以产生具有更好的多样性和更有针对性的输入。主干模块在实现了一种新的基于注意力的多尺度估计,有效缓解了传统多尺度方法中经常遇到的瓶颈问题。后处理模块有助于减少最终输出中的瑕疵。

2. GridDehazeNet

2.1 网络结构

总体网络框架如下:
整体网络框架
总体网络框架中的块的详细解释:
整体框架中的块的详细解释

2.2. 通道注意力的特征融合

注意到整体框架中,许多地方将水平块的输出和竖直块的输出进行融合,即图中红色圆圈圈住A的地方。此处即为通道注意力的特征融合。融合机制可以定义如下:
F ^ i = a r i F r i + a c i F c i \hat{F}^i=a^i_rF^i_r+a^i_cF^i_c F^i=ariFri+aciFci
其中, F i ^ \hat{F^i} Fi^代表 i i i通道融合后的结果, F r i F^i_r Fri表示当前融合水平输入的第 i i i个通道, a r i a^i_r ari表示当前融合水平输入的第 i i i个通道的融合权重, F c i F^i_c Fci代表当前融合竖直输入的第 i i i个通道, a c i a^i_c aci表示当前融合竖直输入的第 i i i个通道的融合权重。

2.3 损失函数

损失函数包括两部分:平滑 L 1 L_1 L1损失和感知损失。

2.3.1 Smooth L 1 L_1 L1 Loss

平滑 L 1 L_1 L1损失定义为:
L S = 1 N ∑ x = 1 N ∑ i = 1 3 F S ( J ^ i ( x ) − J i ( x ) ) L_S=\frac{1}{N} \sum^N_{x=1} \sum^3_{i=1} F_S(\hat{J}_i(x)-J_i(x)) LS=N1x=1Ni=13FS(J^i(x)Ji(x))
其中:
F S ( e ) = { 0.5 e 2 , i f ∣ e ∣ < 1 , ∣ e ∣ − 0.5 , o t h e r w i s e . F_S(e) = \begin{cases} 0.5e^2, & if |e|<1, \\ |e|-0.5, & otherwise. \end{cases} FS(e)={0.5e2,e0.5,ife<1,otherwise.
平滑 L 1 L_1 L1损失函数的原理可以看别的博客。

2.3.2 Perceptual Loss

感知损失利用预训练模型,提去多尺度特征来量化结果和GT的视觉差异。本文用的是在ImageNet上预训练的VGG-16模型,从前三个阶段(即Conv1-2, Conv2-2,Conv3-3)的最后一层提取特征。
感知损失定义为:
L P = ∑ j = 1 3 1 C j H j W j ∣ ∣ ϕ j ( J ^ ) − ϕ j ( J ) ∣ ∣ 2 2 L_P = \sum^3_{j=1} \frac{1}{C_jH_jW_j}||\phi_j{(\hat{J})}-\phi_j{(J)}||^2_2 LP=j=13CjHjWj1ϕj(J^)ϕj(J)22
其中, ϕ i ( J ^ ) \phi_i(\hat{J}) ϕi(J^)( ϕ i ( J ) \phi_i (J) ϕi(J)), j = 1 , 2 , 3 j=1,2,3 j=1,2,3,为去雾结果 J ^ \hat{J} J^(the ground truth J J J)相关联的三个VGG-16的特征图。 C j C_j Cj H j H_j Hj W j W_j Wj ϕ i ( J ^ ) \phi_i(\hat{J}) ϕi(J^)( ϕ i ( J ) \phi_i (J) ϕi(J))的尺寸。

2.3.3 Total Loss

总的损失函数为:
L = L S + λ L P L = L_S + \lambda L_P L=LS+λLP
其中 λ \lambda λ为调整两个损失相对权重的参数。本文设为 λ = 0.04 \lambda = 0.04 λ=0.04

3. 实验结果

实验结果

4. 总结

本文提出了一个端到端可训练的CNN,名为GridDehazeNet,并展示了它在单幅图像去雾方面的竞争性能。由于其网络结构的通用性,GridDehazeNet有望适用于广泛的图像复原问题。

  • 3
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
dea-net是一种基于细节增强卷积和对比度的单幅图像去雾算法。它的主要目标是提高图像的可视质量,减少雾霾对图像造成的影响。 dea-net算法使用了细节增强卷积和对比度两种技术来去除雾霾,以提高图像的细节信息和对比度。细节增强卷积是通过对图像进行一系列卷积操作,突出图像中的细节信息,从而提高图像的清晰度和细节表现力。而对比度提升则是通过调整图像的亮度和对比度,增强图像的视觉效果。 dea-net算法在去除雾霾的过程中,首先通过细节增强卷积提取图像的细节信息,然后利用对比度提升技术增强图像的对比度。接下来,通过对像素值进行归一化处理来消除雾霾的像素值的弱化效应。最后,再利用细节增强卷积增强图像的细节信息,提高图像的清晰度。 实验结果表明,dea-net算法在单幅图像去雾方面取得了较好的效果。与其他算法相比,在恢复图像的细节和对比度方面具有明显的优势。该算法能够有效地去除雾霾并恢复图像的清晰度和细节,提高图像的可视质量。 总结而言,dea-net是一种基于细节增强卷积和对比度的单幅图像去雾算法,通过提取细节信息和增强对比度的方式,有效地去除雾霾,提高图像的清晰度和细节表现力。该算法在图像去雾方面具有较好的效果,对于提升图像的可视质量具有重要的应用价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值