Rethinking Performance Gains in Image Dehazing Networks-gUNet&FFA-Net: Feature Fusion Attention Net~

分享连篇去雾领域的TOP3和TOP2,TOP1是基于Transformer的网络,暂时先考虑CNN,且榜一和榜二相差不大,特别是gUNet非常轻量化,UNet结构部署友好。

首先,先分享TOP3的FFA-Net。

 

GitHub - zhilin007/FFA-Net: FFA-Net: Feature Fusion Attention Network for Single Image Dehazing https://arxiv.org/pdf/1911.07559v2.pdf

本文提出了Feature Fusion Attention Network(FFA-Net)用于单幅图像去雾。该网络最重要的是Feature Attention(FA)模块。FA模块包含了Channel Attention(CA)模块和Pixel Attention(PA)模块。

网络的输入为一张雾图,经过一个浅层的特征提取部分,然后馈入N个带有跳跃连接的Group Architecture,输出结果由本文提出的特征注意力模块进行融合,最后,经由重建部分和全局残差学习结构得到最终的无雾图输出。

 

大多数去雾网络平等对待通道和像素的特征,无法准确处理雾分布不均和加权通道方式特征的图像。 本文的特征注意力包含了通道注意力和像素注意力,可以在处理不同类型的信息时提供额外的灵活性。 FA不平等地对待不同的特征和像素区域,这可以在处理不同类型的信息时提供额外的灵活性,并可以扩展CNN的表示能力。 关键步骤是如何为每个通道和像素方向的特征生成不同的权重。

对于FFAnet就不仔细说了,结构没有什么非常亮眼的地方,提出的CA,PA模块也相对比较传统,且模型计算量太大了,接下来看一下gUNet。

https://arxiv.org/pdf/2209.11448v1.pdf

GitHub - IDKiro/gUNet: Rethinking Performance Gains in Image Dehazing Networks

具体来说,我们将U-Net中的卷积块交换为具有门控机制的残差块,融合主路径的特征映射,并使用选择核跳过连接,并调用得到的U-Net变体gUNet。因此,gUNet以显著降低的开销,在多个图像去雾数据集上优于最先进的方法。最后,通过广泛的消融研究验证了这些关键设计对图像去雾网络性能增益的影响。

该文章指出:FFA-Net [42],提出了一种引入像素注意模块和通道注意模块的深度网络。其他作品也提出了合理的修改建议。然而,这些修改只带来适度的性能提高,但使网络更加复杂和难以部署。 

 

 

这个小圆点叫做Hadamard product。 使用这种门口机制给网络提供非线性,没有使用relu,

 

 

 Deeper vs. Wider. 考虑到参数的数量和计算成本,一个更深的网络比一个更宽的网络表现得更好,但代价是速度更慢。然而,一个广泛的网络也有负面影响,因为它生成更大的中间特征图,消耗更多的GPU内存,并且不利于边缘设备的推断。因此,在本文中,我们增加了网络的深度来扩展网络

 数据集在上一篇传统算法中分享了,目前打算试一下gUNet,有结果会继续更新。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SetMaker

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值