2024年YoloV8改进创新指南
文章平均质量分 92
用2024年最新的成果改进YoloV8,打造YoloV8改进的精品专栏!
优惠券已抵扣
余额抵扣
还需支付
¥159.90
¥299.90
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
AI智韵
专注AI技术,紧跟时代前沿,将最新的论文成果运用到Yolo系列的改进中!每篇文章都包含几种改进方法,步骤详细,解释清楚,还提供了PDF版本的文章和完整的改进代码!大家遇到使用的问题,或者我写的不清楚的地方,请私信告诉我!如果是写的不够清楚,我再去修改,如果有错误和Bug,我尽快修复!谢谢大家!
展开
-
【专栏目录】
本专栏是讲解如何改进Yolov8的专栏。改进方法采用了2024年最新的论文提到的方法。改进的方法包括:增加注意力机制、更换卷积、更换block、更换backbone、更换head、更换优化器等;每篇文章提供了一种到N种改进方法。评测用的数据集是我自己标注的数据集,里面包含32种飞机。每种改进方法我都做了测评,并与官方的模型做对比。代码和PDF版本的文章,我在验证无误后会上传到百度网盘中,方便大家下载使用。这个专栏,求质不求量,争取尽心尽力打造精品专栏!!!!!原创 2024-01-17 06:45:42 · 1517 阅读 · 0 评论 -
YoloV8改进策略:BackBone改进|CAFormer在YoloV8中的创新应用,显著提升目标检测性能
摘要在目标检测领域,模型性能的提升一直是研究者和开发者们关注的重点。近期,我们尝试将CAFormer模块引入YoloV8模型中,以替换其原有的主干网络,这一创新性的改进带来了显著的性能提升。CAFormer,作为MetaFormer框架下的一个变体,结合了深度可分离卷积和普通自注意力机制的优势。在底层阶段,CAFormer采用深度可分离卷积作为令牌混合器,有效降低了计算复杂度并保持了良好的性能;而在顶层阶段,则引入普通的自注意力机制,以更好地捕获长距离依赖性。这种设计使得CAFormer在图像分类任务上原创 2024-10-06 19:53:39 · 594 阅读 · 0 评论 -
YoloV8改进策略:BackBone改进|RIFormer在YoloV8中的创新应用与显著性能提升
RIFormer是一种经过精心设计的视觉骨干网络,其核心在于去除了传统视觉Transformer(ViTs)中的复杂令牌混合器(token mixer),如自注意力机制,转而采用一种简化的恒等映射结构。这一设计极大地降低了模型的计算复杂度,同时保留了足够的建模能力。通过结合知识蒸馏和结构重参数化技术,RIFormer能够在保持高效率的同时,实现与复杂模型相媲美的性能,为边缘设备上的视觉任务提供了理想选择。原创 2024-09-26 07:08:19 · 244 阅读 · 0 评论 -
YoloV8改进策略:BackBone改进|PoolFormer赋能YoloV8,视觉检测性能显著提升的创新尝试
在深度学习的广阔领域中,目标检测作为计算机视觉的基石任务之一,始终吸引着研究者的广泛关注。近期,我们大胆尝试将前沿的PoolFormer主干网络引入经典的目标检测框架YoloV8中,这一创新性融合不仅为YoloV8注入了新的活力,更在检测精度与效率上实现了双重飞跃,成为目标检测领域的一股强劲新风。PoolFormer,作为MetaFormer家族的一员,以其独特的池化注意力机制脱颖而出。原创 2024-09-24 14:52:35 · 880 阅读 · 0 评论 -
YoloV8改进策略:BackBone改进|Next-ViT主干赋能下的革命性改进
我们展示了如图2所示的Next-ViT。按照惯例,Next-ViT遵循带有补丁嵌入层和每个阶段一系列卷积或Transformer块的层次金字塔架构。空间分辨率将通过每个阶段减少32倍,而通道维度将在不同阶段扩展。在本章中,我们首先深入设计信息交互的核心块,并分别开发了强大的NCB和NTB来模拟视觉数据中的短期和长期依赖性。局部和全局信息的融合也在NTB中执行,这进一步增强了建模能力。最后,我们系统地研究了集成卷积和Transformer块的方式。原创 2024-09-18 09:45:15 · 1174 阅读 · 0 评论 -
YoloV8改进策略:BackBone改进|Swin Transformer赋能YoloV8,性能跃升的新篇章
计算机视觉建模长期以来一直由卷积神经网络 (CNN) 主导。从 AlexNet [38] 及其在 ImageNet 图像分类挑战中的革命性表现开始,CNN 架构通过更大的规模 [29, 73]、更广泛的连接 [33] 和更复杂的卷积形式 [67, 17, 81]。随着 CNN 作为各种视觉任务的骨干网络,这些架构的进步导致了性能改进,从而广泛提升了整个领域。另一方面,自然语言处理 (NLP) 中网络架构的演变采取了不同的路径,如今流行的架构是 Transformer [61]。原创 2024-09-16 18:08:39 · 1317 阅读 · 0 评论 -
YoloV8实战:使用Ultralytics实现Sam2的推理
Segment Anything Model 2(SAM 2)作为Meta公司发布的Segment Anything Model(SAM)的升级版本,在图像和视频分割领域展现出了显著的优点和特性。论文连接:https://arxiv.org/pdf/2408.00714。原创 2024-09-10 06:08:35 · 1125 阅读 · 0 评论 -
YoloV8改进策略:IoU改进|Unified-IoU用于高质量对象检测
Unified-Unified-IoU(UIoU)是一种新的边界框回归损失函数,旨在改进目标检测任务中的预测框质量,特别是在高IoU阈值和IoU(UIoU)是一种新的边界框回归损失函数,旨在改进目标检测任务中的预测框质量,特别是在高IoU阈值和密集型数据集上表现出色。密集型数据集上表现出色。原创 2024-09-03 07:42:54 · 1450 阅读 · 6 评论 -
YoloV8实战:使用YoloV8实现OBB框检测
使用定向边界框(OBB)训练精确的物体检测模型需要一个全面的数据集。本文解释了与Ultralytics YOLO 模型兼容的各种 OBB 数据集格式,深入介绍了这些格式的结构、应用和格式转换方法。数据集使用DOTA。原创 2024-08-29 06:46:12 · 1238 阅读 · 0 评论 -
YoloV8改进策略:主干网络改进|使用YoloV8实现多任务检测|基于MobileNetV4实时与通用多任务检测模型的改进
在自动驾驶领域,高精度、轻量级和实时响应是三个至关重要的要求。本文介绍了一种基于MobileNetV4的改进版A-YOLOM(Adaptive YOLO Multi-task)模型,该模型旨在进一步提升实时性能,同时保持对目标检测、可行驶区域分割和车道线分割任务的高精度处理能力。通过替换原A-YOLOM模型中的YOLOv8骨干网络为MobileNetV4,我们成功降低了模型复杂度,显著提升了推理速度,同时保持了良好的检测与分割性能。原创 2024-08-27 06:55:17 · 1146 阅读 · 0 评论 -
YoloV8改进策略:主干网络改进|CAS-ViT在YoloV8中的创新应用与显著性能提升
在深度学习与计算机视觉领域,模型效率与性能之间的平衡一直是研究者和开发者关注的焦点。特别是在实时检测与识别任务中,如YoloV8这类高效的目标检测模型,其主干网络的选择对整体性能具有决定性作用。近期,我们通过将CAS-ViT(卷积加性自注意力视觉Transformer)创新性地引入到YoloV8中,替换其原有的主干网络,实现了令人瞩目的性能提升,这一改进不仅彰显了CAS-ViT的强大潜力,也为YoloV8的进一步优化开辟了新路径。原创 2024-08-27 22:21:49 · 552 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|ACConv2d模块在YoloV8中的创新应用与显著性能提升|简单易用|即插即用
这一创新不仅增强了模型的特征提取能力,还通过引入分组卷积的策略进一步降低了运算量,从而在保证模型精度的同时,提升了运行效率。综上所述,ACConv2d模块在YoloV8中的创新应用不仅显著提升了模型的检测精度和计算效率,还增强了模型的鲁棒性,为目标检测领域的研究和应用提供了新的思路和方法。:我们直接替换YoloV8中的所有标准Conv卷积层为ACConv2d模块。:通过引入分组卷积策略,我们在提升模型精度的同时,有效降低了运算量,使得模型在保持高性能的同时,能够更快地进行推理,适应于实时检测等应用场景。原创 2024-08-24 10:16:31 · 444 阅读 · 1 评论 -
YoloV8的改进策略:下采样改进|集成GCViT的Downsampler模块实现性能显著提升|即插即用
随着深度学习在计算机视觉领域的广泛应用,目标检测任务成为了研究热点之一。YoloV8作为实时目标检测领域的领先模型,凭借其高效性与准确性赢得了广泛的关注。然而,为了进一步提升YoloV8的性能,特别是在特征提取与下采样过程中的信息保留能力,我们引入了来自GCViT(Global Context Vision Transformers)模型中的Downsampler模块。本文将详细阐述这一改进方法,并探讨其带来的显著优势。原创 2024-08-20 22:24:17 · 694 阅读 · 4 评论 -
YoloV8改进策略:下采样与上采样改进|下采样模块和DUpsampling上采样模块|即插即用
河流冰语义分割是一项关键任务,它可以为我们提供河流监测、灾害预测和交通管理所需的信息。以往的工作主要集中在提高准确性上,但对于实际应用而言,效率也同样重要。在本文中,我们提出了一种实时且准确的河流冰语义分割网络,命名为FastICENet。该网络架构主要由两个分支组成,即一个浅层高分辨率空间分支和一个深层上下文语义分支,这两个分支都是为了应对遥感图像中河流冰的尺度多样性和不规则形状而精心设计的。然后,在上下文分支中采用了基于轻量级Ghost模块的新型下采样模块和密集连接块,以降低计算成本。原创 2024-08-19 22:26:49 · 869 阅读 · 0 评论 -
YoloV8改进策略:Block改进|自研GroupxLSTM模块|即插即用(顶会专属)
是一种在传统长短期记忆网络(LSTM)基础上进行改进和扩展的循环神经网络(RNN)变体。LSTM作为处理序列数据(如时间序列分析、自然语言处理等)的强大工具,通过引入“门”机制(遗忘门、输入门、输出门)有效缓解了梯度消失和梯度爆炸的问题。原创 2024-08-13 09:21:26 · 993 阅读 · 0 评论 -
YoloV9改进策略:EMA注意力机制在YoloV9中的创新应用与显著性能提升|即插即用
在各种计算机视觉任务中,通道或空间注意力机制在产生更清晰的特征表示方面的显著有效性得到了证明。然而,通过通道降维来建模跨通道关系可能会给提取深度视觉表示带来副作用。提出了一种新的高效的多尺度注意力(EMA)模块。以保留每个通道上的信息和降低计算开销为目标,将部分通道重塑为批量维度,并将通道维度分组为多个子特征,使空间语义特征在每个特征组中均匀分布。具体来说,除了对全局信息进行编码以重新校准每个并行分支中的通道权重外,还通过跨维度交互进一步聚合两个并行分支的输出特征,以捕获像素级成对关系。原创 2024-08-07 12:56:39 · 1174 阅读 · 0 评论 -
YoloV8改进策略:注意力机制改进|全局与局部注意力融合(AFF)|即插即用
在YoloV8的Bottleneck模块中,我们巧妙地嵌入了注意力特征融合(AFF)模块。AFF模块通过多尺度通道注意力机制(MS-CAM),有效融合了全局和局部特征上下文,解决了传统特征融合方法在处理不同尺度特征时面临的语义不一致性问题。这一改进使得YoloV8在检测过程中能够更精准地捕捉目标的细节信息,同时保持对全局场景的深刻理解。原创 2024-08-06 17:40:58 · 778 阅读 · 0 评论 -
YoloV8改进策略:注意力机制改进|通过iAFF模块优化Bottleneck结构,YoloV8性能飞跃|即插即用
传统的YoloV8通过堆叠Bottleneck模块来构建其深度网络结构,以捕捉图像中的多层次特征。然而,在处理多尺度特征融合时,传统的简单加法或拼接操作往往无法有效整合不一致的语义和尺度信息,从而限制了模型性能的进一步提升。为了克服这一局限,我们在Bottleneck模块中嵌入了iAFF模块,实现了对输入特征图的动态和自适应融合。多尺度特征融合:iAFF模块通过聚合局部和全局上下文信息,解决了不同尺度特征融合时的语义不一致性问题。原创 2024-08-04 19:09:53 · 900 阅读 · 0 评论 -
YoloV8改进策略:Block改进|GroupMamba在C2f模块中的革新应用|即插即用
文章目录论文翻译:《GroupMamba:参数高效且准确的组视觉状态空间模型》1、引言2、相关工作3、方法3.1、预备知识3.2、总体架构3.3、调制组Mamba层3.3.1、视觉单选择扫描(VSSS)块3.3.2、分组Mamba操作符3.3.3、通道亲和力调制(CAM)3.4、蒸馏损失函数4、实验4.1、图像分类4.2、目标检测和实例分割4.3、语义分割4.4、消融研究5、结论论文翻译:《GroupMamba:参数高效且准确的组视觉状态空间模型》https://arxiv.org/html/2407.原创 2024-08-03 11:43:34 · 838 阅读 · 0 评论 -
YoloV8改进策略:注意力机制改进|MS_CAM模块融入Bottleneck结构,显著提升性能|即插即用
特征融合,即来自不同层或分支的特征的组合,是现代网络架构中无处不在的一部分。它通常通过简单的操作来实现,如求和或拼接,但这可能不是最佳选择。在这项工作中,我们提出了一种统一且通用的方案,即注意力特征融合,它适用于大多数常见场景,包括由短连接和长连接引起的特征融合以及Inception层内的特征融合。为了更好地融合不一致的语义和尺度的特征,我们提出了一个多尺度通道注意力模块,该模块解决了在融合不同尺度特征时出现的问题。原创 2024-08-02 21:16:41 · 584 阅读 · 0 评论 -
YoloV8改进策略:上采样改进|Patch Expanding Layer 来实现特征图的上采样
在 Swin Transformer 的解码器中,使用了 Patch Expanding Layer 来实现特征图的上采样。这个层会将相邻维度的特征图重新塑造为更高分辨率的特征图,实现了2倍的上采样。同时,特征的维度也会相应地减半。这种操作可以在解码器中进行上采样操作,以恢复图像的分辨率,同时减少特征的维度。例如:输入特征(W/32×H/32×8C)上应用线性层,将特征维度增加到2×原始尺寸(W/32×H/32×16C)。原创 2024-07-30 21:54:25 · 736 阅读 · 0 评论 -
YoloV8改进策略:Block改进|视觉网络的有效调制|全网首发
链接:https://arxiv.org/pdf/2403.19963在这项工作中,我们提出了高效调制(EfficientMod),这是一种用于高效视觉网络的新型设计。我们重新审视了调制机制,该机制通过卷积上下文建模和特征投影层处理输入,并通过逐元素乘法和多层感知机(MLP)块融合特征。我们证明了调制机制特别适用于高效网络,并通过提出高效调制(EfficientMod)块来进一步定制调制设计,该块被视为我们网络的基本构建块。原创 2024-07-27 20:49:44 · 239 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|Kan行天下之BottleNeckReLUKANConv2DLayer
本文介绍了一种名为ReLU-KAN的新型架构,该架构使用新型基础函数替换了KAN中的B样条。此外,ReLU-KAN实现了全矩阵运算,显著提高了训练速度。实验结果表明,ReLU-KAN在训练速度、拟合能力和稳定性方面均优于KAN。在未来的工作中,我们计划将ReLU-KAN应用于卷积和Transformer架构中,以研究其在不牺牲模型性能的情况下减少参数的潜力。原创 2024-07-22 21:05:11 · 971 阅读 · 0 评论 -
YoloV8改进策略:主干网络改进|复兴DenseNets,RDNet成为新的涨点神器|全网首发
论文提出的模型主要基于对传统DenseNet架构的改进和复兴,通过一系列创新设计,旨在提升模型性能并优化其计算效率,提出了RDNet模型。原创 2024-07-22 21:07:07 · 1512 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|Kan行天下之ReluKan
本文介绍了一种名为ReLU-KAN的新型架构,该架构使用新型基础函数替换了KAN中的B样条。此外,ReLU-KAN实现了全矩阵运算,显著提高了训练速度。实验结果表明,ReLU-KAN在训练速度、拟合能力和稳定性方面均优于KAN。在未来的工作中,我们计划将ReLU-KAN应用于卷积和Transformer架构中,以研究其在不牺牲模型性能的情况下减少参数的潜力。原创 2024-07-20 09:24:26 · 632 阅读 · 0 评论 -
YoloV8改进策略:Block改进|复兴DenseNets,RDNet成为新的涨点神器|即插即用|全网首发
论文提出的模型主要基于对传统DenseNet架构的改进和复兴,通过一系列创新设计,旨在提升模型性能并优化其计算效率,提出了RDNet模型。原创 2024-07-19 07:05:48 · 680 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|Kan行天下之小波Kan
Wav-KAN是一种利用Wavelet Kolmogorov-Arnold Networks(Wav-KAN)框架的神经网络架构,旨在提升可解释性和性能。通过使用小波函数替换了之前的B样条(在Spl-KAN中),从而在多个方面显著改进了神经网络架构。原创 2024-07-11 14:37:39 · 840 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|Kan行天下之GRAM,KAN遇见Gram多项式V2版本
GRAM(GRAM可能是一个新提出的模型或方法的缩写,这里我们根据上下文进行解释)受到诸如TorchKAN和ChebyKAN等Kolmogorov-Arnold网络(KAN)替代方案的启发。GRAM引入了一种简化的KAN模型,但同时利用了Gram多项式变换的简单性。它与其他替代方案的不同之处在于其独特的离散性特征。与其他在连续区间上定义的多项式不同,Gram多项式是在一组离散点上定义的。GRAM的这种离散性为处理像图像和文本数据这样的离散数据集提供了一种新颖的方法。原创 2024-07-11 13:51:45 · 638 阅读 · 0 评论 -
YoloV8改进策略:卷积篇Kan行天下之JacobiKAN,KAN遇见Jacobi多项式
将Kolmogorov-Arnold Networks (KAN) 中的B-spline替换为Jacobi多项式是一个很有创意的想法,因为Jacobi多项式在函数逼近方面表现出色,并且具有递归计算的特性。经过测试,Jacobi多项式的KAN在YoloV8中,取得了非常不错的涨点效果。下面我将概述如何构建基于Jacobi多项式的KAN层(JacobiKANLayer)的基本框架,并简要说明如何在Python中实现它。原创 2024-07-10 13:31:57 · 552 阅读 · 0 评论 -
YoloV8改进策略:Block改进|轻量实时的重参数结构|最新改进|即插即用(全网首发)
本文使用重参数的Block替换YoloV8中的Bottleneck,GFLOPs从165降到了116,降低了三分之一;同时,map50-95从0.937涨到了0.947。改进方法简单,只做简单的替换就行,即插即用,非常推荐!原创 2024-07-07 09:06:31 · 517 阅读 · 0 评论 -
YoloV8改进策略:Block篇|Vision-LSTM将xLSTM 作为通用视觉主干(全网首发)
本文使用Vision-LSTM改进YoloV8的block,取得了不错的得分。如果大家想发顶会,或者比较好的期刊,可以优先考虑!原创 2024-06-20 05:50:47 · 1653 阅读 · 0 评论 -
YoloV8改进策略:注意力篇|BackBone改进|附结构图|自研基于xLSTM的注意力(全网首发)
本文使用Vision-LSTM的xLSTM改进YoloV8的BackBone结构,增加自研的注意力机制,取得了不错的得分。如果大家想发顶会,或者比较好的期刊,可以优先考虑!原创 2024-07-02 05:40:33 · 1135 阅读 · 0 评论 -
YoloV8改进策略:注意力篇|Block改进|附结构图|自研基于xLSTM的注意力(全网首发)
本文使用Vision-LSTM的xLSTM改进YoloV8的Bottleneck结构,增加自研的注意力机制,取得了不错的得分。如果大家想发顶会,或者比较好的期刊,可以优先考虑!原创 2024-06-23 21:45:09 · 1373 阅读 · 0 评论 -
YoloV8改进策略:Block篇|即插即用|StarNet,重写星操作,使用Block改进YoloV8(全网首发)
本文主要集中在介绍和分析一种新兴的学习范式——星操作(Star Operation),这是一种通过元素级乘法融合不同子空间特征的方法,通过元素级乘法(类似于“星”形符号的乘法操作)将不同子空间的特征进行融合,从而在多个研究领域中展现出出色的性能和效率。星操作在自然语言处理(NLP)和计算机视觉(CV)等多个领域中都得到了成功应用。例如,在自然语言处理中,Monarch Mixer、Mamba、Hyena Hierarchy和GLU等模型都采用了星操作;在计算机视觉中,FocalNet、HorNet和VAN原创 2024-06-20 06:01:48 · 1006 阅读 · 0 评论 -
YoloV8改进策略:主干网络篇|StarNet,重写星操作
最近的研究已经引起了人们对网络设计中“星操作”(元素级乘法)尚未开发的潜力的关注。尽管直观的解释很多,但其应用背后的基本原理仍然在很大程度上未被探索。我们的研究试图揭示星操作将输入映射到高维、非线性特征空间的能力——类似于核技巧——而无需加宽网络。我们还引入了StarNet,这是一个简单但功能强大的原型,它在紧凑的网络结构和有限的预算下展示了令人印象深刻的性能和低延迟。就像天空中的星星一样,星操作看似普通,但蕴含着巨大的潜力。原创 2024-06-17 08:32:50 · 1364 阅读 · 0 评论 -
YoloV8改进策略:卷积篇|Kan行天下之GRAM,KAN遇见Gram多项式
GRAM的灵感来自于Kolmogorov-Arnold网络(KAN)的替代品,如TorchKAN和ChebyKAN。GRAM引入了一种KAN模型的简化版本,但利用了Gram多项式变换的简洁性。它与其他替代品的不同之处在于其独特的离散性特征。与其他在连续区间上定义的多项式不同,Gram多项式因其在一组离散点上定义而脱颖而出。GRAM的这种离散性为处理离散化数据集(如图像和文本数据)提供了一种新颖的方法。原创 2024-06-17 05:25:19 · 948 阅读 · 0 评论 -
YoloV8改进策略:注意力篇|BackBone改进|自研像素和通道并行注意力模块(独家原创)
本文使用FFA-Net的注意力改进YoloV8,FFA-Net提出了通道注意力和像素注意力相结合的方式,提高Block的表征能力,我把这两种注意力结合起来改进YoloV8的Bottleneck,取得了非常好的效果,即插即用,简单易懂,非常适合大家入手。原创 2024-06-15 21:28:50 · 1026 阅读 · 2 评论 -
YoloV8改进策略:卷积篇|Kan行天下之FastKANConv
最近,Kan开始大火,虽然作者说Kan并不适合图像处理的领域,但是依然阻止不了大家的热情,各种Kan井喷而出,但是Kan如何用好Kan成为大家最为头疼的问题。这篇文章告诉大家如何使用FastKAN改进YoloV8,超过超赞!扩展和完善这段文字FastKAN的核心优势在于其高效的运算速度和良好的可解释性。通过高斯径向基函数(RBF)来近似B样条基础,FastKAN能够显著加速模型的运算过程,同时保持模型的准确性。而YoloV8则以其独特的卷积神经网络结构和高效的特征提取能力,在目标检测任务中表现出色。原创 2024-06-15 05:49:45 · 835 阅读 · 0 评论 -
YoloV8改进策略:注意力篇|像素注意力和通道注意力相融合,改进Bottleneck(独家原创)
本文使用FFA-Net的注意力改进YoloV8,FFA-Net提出了通道注意力和像素注意力相结合的方式,提高Block的表征能力,我把这两种注意力结合起来改进YoloV8的Bottleneck,取得了非常好的效果,即插即用,简单易懂,非常适合大家入手。原创 2024-06-11 21:37:45 · 1157 阅读 · 0 评论 -
YoloV8改进策略:Block篇|FFA-Net:用于单图像去雾的特征融合注意力网络(独家原创)
论文链接:https://arxiv.org/pdf/1911.07559v2在这篇论文中,我们提出了一种端到端的特征融合注意力网络(FFA-Net)来直接恢复无雾图像。FFA-Net架构由三个关键组件组成:一种新颖的特征注意力(FA)模块结合了通道注意力与像素注意力机制,考虑到不同通道特征包含完全不同的加权信息,且雾在图像的不同像素上分布不均匀。FA模块对不同的特征和像素进行非等权重处理,这在处理不同类型的信息时提供了额外的灵活性,扩展了卷积神经网络(CNNs)的表示能力。原创 2024-06-11 05:20:35 · 1353 阅读 · 0 评论