英文论文(sci)解读复现【NO.12】YOLO-Tea: YOLOv5改进的茶叶病害检测模型

此前出了目标检测算法改进专栏,但是对于应用于什么场景,需要什么改进方法对应与自己的应用场景有效果,并且多少改进点能发什么水平的文章,为解决大家的困惑,此系列文章旨在给大家解读发表高水平学术期刊中的 SCI论文,并对相应的SCI期刊进行介绍,帮助大家解答疑惑,助力科研论文投稿。解读的系列文章,本人会进行 创新点代码复现,有需要的朋友可关注私信我获取。

  一、摘要

茶叶病虫害每年给茶叶产业造成巨大的经济损失,准确识别病虫害具有重要意义。卷积神经网络
(Convolutional neural network, CNNs)可以自动从茶叶病虫害图像中提取特征。然而,在自然环境下拍摄的茶树叶片照片存在叶片遮光、光照、物体尺寸小等问题。受这些问题的影响,传统的 cnn识别性能不佳。为了应对这一挑战,我们提出了 YOLO-Tea,这是一个基于 You Only Look Once
version 5 (YOLOv5)的改进模型。首先,我们将自注意与卷积(ACmix)和卷积块注意模块(CBAM)集
成到YOLOv5中,使我们提出的模型能够更好地聚焦于茶树叶片病虫害。其次,为了增强模型的
特征提取能力,我们将原YOLOv5中的空间金字塔池化(spatial pyramid pooling fast, SPPF)模块替换为接受域块(RFB)模块。最后,我们通过合并全球上下文网络(GCNet)来减少模型的资源消耗。这是非常重要的,特别是当模型在资源受限的边缘设备上运行时。与 YOLOv5s 相比,我们建议的
YOLO-Tea 在所有测试数据上提高了 0.3%-15.0%。YOLO-Tea 报道 0.5 美联社 TLB,美联社 GMB 比Faster R-CNN和SSD分别高出5.5%、1.8%、7.0%和7.7%、7.8%、5.2%。YOLO-Tea在现实世界的树木病害检测系统中显示出了巨大的应用潜力。

二、网络模型及核心创新点

 (1)自注意卷积(ACmix)和卷积块注意模块(CBAM)集成到YOLOv5s 模型

(2)空间金字塔池快速(SPPF)模块替换为接受田块(RFB)模块

(3)加入了GCnet结构

三、数据集

本研究所用的茶树病虫害照片均在自然环境下野外拍摄。中国江苏省镇江市句容茅山茶园拍摄了茶叶病虫害照片。茶叶病虫害图像采集于 2022年7月1日下午。我们在晴朗、光线充足的天气和良好的采集环境下进行图像采集。由于我们的图像是在自然环境中拍摄的,所以我们不仅拍摄了目标密集的茶,也拍摄了目标稀疏的茶。在树叶密集的照片中,会出现树叶遮蔽、树叶重叠等现象。树叶上的倒影和阴影也出现在照片中,因为它们是在阳光灿烂的下午拍摄的。
我们使用了一架无人机(DJI Mavic Air 2)和一款手机,在茶树上方约 50厘米处拍摄了茶叶病害和虫害的图像。我们的图像包括一片病叶和一片害虫叶的图像,即茶叶枯萎病和绿盲蝽。绿盲蝽的学名为绿盲蝽(Meyer-Dür)。这种害虫,绿盲蝽,用被绿盲蝽咬过的茶叶图像来表示。我们的数据集的一些代表性样本如图1所示。

 四、实验效果(部分展示)

(1)消融实验

本文的实验过程如下:首先,利用训练集和验证集对模型进行训练。然后,我们使用测试集对训练后的模型进行测试,得到评估模型所需的数据。消融实验的详细数据如表5所示。

 (2)比较试验

我们将我们提出的 YOLO-Tea模型与 Faster RCNN 和 SSD 进行了比较。在这些实验中,我们感兴趣的主要实验数据是AP0.5、APTLB和APGMB。对比实验的详细结果如表6所示。

为了验证 CSP1GCNet 融合GCNet 后可以减少模型的资源消耗,我们将融合 GCNet后的YOLOv5的参数个数和模型大小与原YOLOv5进行比较。此外,我们比较了未融合GCNet (YOLOv5 + CBAM + ACmix + RFB)的YOLO-Tea 和YOLO-Tea 的参数数量和模型尺寸。详细的实验数据见表7。

比较实验表明,YOLO-Tea 的 AP0.5、APTLB 和 APGMB 不仅比原生YOLOv5s 分别提高了 7.6%、4.4%和 8.5%,而且比Faster R-CNN模型和SSD模型都有提高。其中,Faster R-CNN 作为两阶段目标检测模型,AP0.5、APTLB和APGMB分别比YOLOv5s 高 2.1%、2.6%和 1.5%,而 YOLO-Tea 的 AP0.5、APTLB 和 APGMB 分别比Faster R-CNN高 5.5%、1.8%和7.0%。这些对比实验的结果也验证了我们所提出的YOLO-Tea模型的设计。

 (3)消融实验和对比实验结果的精度-召回曲线如图8所示。 

 五、实验结论

DL和ML技术极大地改善了作物和植物虫害的检测和管理。图像识别技术的发展使复杂的病虫害识别成为可能。本文基于2015年至2022年的出版物,探讨了使用ML和DL技术进行植物病害识别的最新进展。它展示了这些技术在提高疾病检测的准确性和效率方面的好处,但也承认了挑战,例如数据可用性,成像质量以及区分健康植物和患病植物。研究发现,DL和ML的使用显着提高了识别和检测植物病害的能力。这项研究的新奇在于其全面分析了最近的发展,使用ML和DL技术进行植物病害识别,沿着提出的解决方案,以解决与其实施相关的挑战和限制。通过探索各种方法的优点和缺点,并为研究人员和行业专业人士提供有价值的见解,这项研究有助于植物病害检测和预防的进步。

注:论文原文出自YOLO-Tea: A Tea Disease DetectionModel Improved by YOLOv5本文仅用于学术分享,如有侵权,请联系后台作删文处理。

解读的系列文章,本人已进行创新点代码复现,有需要的朋友欢迎关注私信我获取
  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
MSFT-YOLO是基于Transformer模型改进Yolov5用于检测SE(电子元器件)缺陷的方法。 Transformer是一种先进的神经网络架构,主要用于自然语言处理任务,但在计算机视觉领域也得到了广泛应用。Yolov5则是一种经典的目标检测算法,通过将图像分成多个网格单元并预测每个单元中的物体,实了实时目标检测。 在MSFT-YOLO中,我们将Transformer应用于Yolov5的特征提取阶段,以提高对SE缺陷的检测能力。传统的Yolov5使用的是卷积神经网络作为特征提取器,但这种方法在处理杂的缺陷图像时可能会存在一定的局限性。 通过引入Transformer,我们可以将图像中的每个像素看作是一组序列数据,并利用Transformer的自注意力机制来捕捉不同位置之间的依赖关系。这种方式可以提取出更具语义信息的特征表示,从而有效地检测SE缺陷。 在训练过程中,我们使用大量带有标注的SE缺陷图像来优化网络参数。通过进行端到端的训练,我们可以不断调整网络权重以提高检测精度。此外,我们还可以使用数据增强技术来扩增数据集,从而提升模型的鲁棒性和泛化能力。 实验结果表明,MSFT-YOLO相较于传统的Yolov5在SE缺陷检测方面取得了更好的性能。它能够识别出更多的缺陷类型,同时还具备较低的误检率。这使得它在工业制造等领域中有着广泛的应用前景,能够提高产品质量和生产效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

人工智能算法研究院

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值