本⽂提出了⼀种基于YOLOv5s-BC的苹果检测实时检测⽅法。通过添加新的检测头并结合CA和 BiFPN模块优化YOLOv5s⽹络模型,可以有效提取⽬标苹果的图像特征,增强对较⼩⽬标苹果的 检测能⼒。详细结论总结如下。
YOLOv5-BC模型在测试集上的mAP性能达到88.7%,⽐YOLOv5s、YOLOv4、YOLOv3、SSD、 Faster R-CNN(ResNet50)和Faster R-CNN(VGG)模型分别提⾼了4.6%、3.6% %、 20.48%、23.22%、15.27% 和 15.59%。模型的权重⼤⼩仅为16.7 Mb,⽐原始YOLOv5s⼤3 Mb,但⽐YOLOv8、YOLOv4、YOLOv3、SSD、Faster R-CNN(ResNet)和Faster R-CNN (VGG)⼩4.7, 239.3、229.6、74.4、96.8 和 530.2 Mb。⼀张图像的检测仅需0.018秒,保证 了苹果检测的实时性要求。在热图中,向模型添加新的检测头可以检测较⼩⽬标中的苹果。另 外,加⼊CA机制使得模型更加关注和学习检测到的⽬标的⾼层信息,⽽抛弃其他不相关的信息。 在短距离和⻓距离的测试实验中,所提出的模型能够更完美地检测到所有⽬标,显⽰出模型良好 的鲁棒性。
⽬前的苹果检测算法⽆法准确区分被遮挡的苹果和可采摘的苹果,从⽽导致苹果采摘准确率较 低,误采或漏采的情况发⽣率很⾼。为了解决现有算法的相关问题,本研究提出了⼀种基于 YOLOv5s 的改进⽅法,称为 YOLOv5s-BC,⽤于实时苹果检测,其中引⼊了⼀系列修改。⾸先, 将协调注意(CA)块合并到主⼲模块中以构建新的主⼲⽹络。其次,颈部模块中原来的串联操作 被替换为双向特征⾦字塔⽹络(BiFPN)。最后,头部模块中添加了⼀个新的检测头,能够检测机 器⼈视野内更⼩、更远的⽬标。所提出的YOLOv5s-BC模型与多种⽬标检测算法进⾏了⽐较,包括 YOLOv5s、YOLOv4、YOLOv3、SSD、Faster R-CNN(ResNet50)和Faster R-CNN(VGG), 显着提升了4.6%、3.6%, mAP 分别为 20.48%、23.22%、15.27% 和 15.59%。所提出的模型的 检测精度也⽐原始YOLOv5s模型⼤⼤提⾼。该模型平均每张图像检测速度为0.018秒,权重⼤⼩仅 为16.7 Mb,⽐YOLOv8s⼩4.7 Mb,满⾜拣货机器⼈的实时性要求。此外,根据热图,我们提出的 模型可以更多地关注和学习⽬标苹果的⾼级特征,并且⽐原始的 YOLOv5s 模型更好地识别较⼩的 ⽬标苹果。然后,在其他苹果园测试中,该模型能够实时、正确地检测到可采摘的苹果,表现出 良好的泛化能⼒。值得注意的是,我们的模型可以为苹果采摘机器⼈在实时⽬标检测和采摘序列 规划⽅⾯提供技术⽀持。
目录