基于深度学习的花卉检测与识别系统(网页版+YOLOv8/v7/v6/v5代码+训练数据集)

摘要:在本篇博客中,我们深入探讨了基于YOLOv8/v7/v6/v5的花卉检测与识别系统。核心上,我们采用了最新的YOLOv8技术,并整合了YOLOv7YOLOv6YOLOv5等先进算法,进行了细致的性能指标对比分析。我们详细介绍了当前国内外在花卉检测与识别领域的研究现状,包括如何处理数据集、算法的原理、模型构建以及训练代码的实现。此外,本文还展示了如何基于Streamlit设计一个交互式Web应用界面,该界面支持通过图像、视频和实时摄像头进行花卉的检测与识别。用户可以上传不同训练模型(包括YOLOv8YOLOv7YOLOv6YOLOv5)进行推理预测,且界面支持方便的修改与调整。为了方便读者更好地理解与应用,我们附带了完整的网页设计深度学习模型代码以及训练数据集的下载链接。

➷点击跳转至文末所有涉及的完整代码文件下载页☇

网页版-基于深度学习的花卉检测与识别系统(YOLOv8/v7/v6/v5+实现代码+训练数据集)


1. 网页功能与效果

        (1)开启摄像头实时检测:本系统允许用户通过网页直接开启摄像头,实现对实时视频流中花卉的检测。系统将自动识别并分析画面中的花卉,并将检测结果实时显示在用户界面上,为用户提供即时的反馈。

在这里插入图片描述

        (2)选择图片检测:用户可以上传本地的图片文件到系统中进行花卉检测与识别。系统会分析上传的图片,识别出图片中的花卉,并在界面上展示带有花卉标签和置信度的检测结果,让用户能够清晰地了解到每个花卉状态。

在这里插入图片描述

        (3)选择视频文件检测:系统支持用户上传视频文件进行花卉检测与识别。上传的视频将被系统逐帧分析,以识别和标记视频中每一帧的花卉。用户可以观看带有花卉检测与识别标记的视频,了解视频中花卉的变化。

在这里插入图片描述

        (4)选择不同训练好的模型文件:系统集成了多个版本的YOLO模型(如YOLOv8/v7/v6/v5),用户可以根据自己的需求选择不同的模型进行花卉检测与识别。这一功能使得用户能够灵活地比较不同模型的表现,以选择最适合当前任务的模型。

在这里插入图片描述

        在我们的系统中,开启摄像头实时检测功能允许用户即时通过摄像头捕获画面进行花卉识别,这一点对于户外活动和即时识别尤其有用。紧接着,我们提供了选择图片进行检测选择视频文件进行检测的选项,用户可以上传存储在本地的图片或视频文件进行花卉检测,系统将自动识别和标记出花卉种类,支持的文件类型覆盖了常见的多媒体格式,以确保用户能够无缝使用此功能。为了提高系统的灵活性和适用性,我们加入了选择不同训练好的模型文件功能。用户可以根据自己的需要,选择包括YOLOv8、v7、v6、v5在内的不同版本的YOLO模型进行检测。这样的设计考虑到了不同模型可能在特定任务上有不同的表现和优势。

        在展示检测结果方面,系统设计了多种可选模式。检测画面与原始画面的展示方式提供了同时或单独显示检测结果与原始画面的选项,让用户可以直观比较并评估检测准确性。此外,特定目标的单独标记与结果展示功能使用户能够集中关注于特定类型的花卉,通过下拉框进行选择后,系统将只标记并展示选定的花卉种类。

        针对检测结果的管理和优化,我们实现了检测结果的动态显示与保存功能,用户不仅可以在界面上实时查看检测结果,还可以根据需要调整置信度阈值和IOU阈值以获得最佳检测效果。检测结果可以方便地导出为CSV文件,便于进一步分析和记录。最后,为了更好地分享和报告检测结果,导出标记结果功能支持将标记的图片、视频以及实时摄像头捕捉的画面导出为AVI格式的文件。

        综上所述,这些功能的集成体现了我们对于提升用户体验和检测精度的不懈追求,确保了系统既实用又高效,能够满足广泛的应用需求。


2. 绪论

2.1 研究背景及意义

        花卉作为大自然中的重要组成部分,不仅美化了环境,还在维护生态平衡、促进生物多样性方面发挥着关键作用。它们的存在对人类社会有着极其重要的经济价值和文化意义,包括但不限于提供药材、装饰、研究和教育资源。随着全球气候变化和环境退化,一些花卉种类正面临灭绝的威胁,这不仅会破坏生态系统的完整性,还将使我们失去它们的经济和科研价值。因此,对花卉进行有效的检测和识别,对于保护生物多样性、支持生态研究和促进可持续发展具有重要意义。

        在技术层面,花卉检测与识别的需求催生了利用计算机视觉技术进行自动化识别的研究。传统方法依赖于人工识别,不仅耗时耗力,而且准确率受限于识别者的专业知识和经验。随着人工智能和深度学习技术的飞速发展,尤其是卷积神经网络(CNN)在图像处理领域的成功应用,提供了新的解决方案。YOLO1(You Only Look Once)系列算法作为目标检测领域的先锋,因其高效率和准确性被广泛应用于花卉识别任务中。从YOLOv1到最新的YOLOv82,每一次迭代都在性能和准确性上做出了显著改进,为花卉检测与识别提供了强大的技术支持。

        尽管YOLO算法及其变体在花卉识别中取得了巨大成功,但依然存在一些挑战。例如,花卉的种类繁多,形态各异,加之拍摄条件的多样性(如光照、角度、背景等)增加了检测难度。此外,一些花卉种类之间的外观差异微小,给识别带来了额外的挑战。针对这些问题,研究者们不断探索新的算法改进方法,如网络结构优化、数据增强技术和深度学习模型的细粒度训练等,以提高识别的准确率和鲁棒性。

        近年来的研究表明,通过引入更深层次的网络结构、利用更复杂的数据增强技术,以及采用更精细化的训练策略,可以有效提升花卉识别的性能。

2.2 国内外研究现状

        花卉检测与识别作为计算机视觉领域的一个重要研究方向,近年来受到了广泛关注。这不仅因为其在科学研究、生物多样性保护、农业和园艺等领域的实际应用价值,也因为它在推动图像处理和模式识别技术发展方面发挥了重要作用。尽管近年来深度学习的发展极大提高了花卉检测与识别的准确率和效率,但依然面临一系列技术挑战,如分类精度、实时处理能力、以及对复杂环境的适应性等。同时,随着算法、数据集的不断发展,新的技术趋势也在不断涌现。

        YOLO系列算法,包括YOLOv53到YOLOv94,因其出色的速度和准确性,在实时目标检测任务中占据了重要地位。YOLOv5作为流行的版本,通过其轻量化设计和高效的性能,被广泛应用于多种检测任务。随着技术的进步,YOLOv6和YOLOv7引入了更多的网络优化和训练策略,提高了模型的泛化能力和准确性。YOLOv8进一步通过引入复杂的注意力机制和模型融合技术,改进了对小目标的检测能力。YOLOv9则着重于模型的可扩展性和自适应能力,提出了更先进的特征提取和数据增强方法,以适应更广泛的检测场景。

在这里插入图片描述

        与此同时,Transformer模型,如ViT和DETR,通过利用自注意力机制处理图像中的全局依赖关系,为图像分类和目标检测任务提供了新的视角。ViT通过将图像分割为一系列的小块并将其输入到Transformer模型中,展示了在大规模数据集上训练时与CNN相媲美的性能。DETR进一步将Transformer的概念应用于目标检测,通过端到端的方式直接预测目标的类别和位置,避免了传统目标检测方法中复杂的后处理步骤。

        RetinaNet5和Faster R-CNN作为目标检测领域的另两个重要模型,分别通过引入焦点损失函数和区域建议网络(RPN),在处理不平衡数据集和提高检测速度方面取得了突破。这些模型在花卉检测与识别等特定任务上的应用,证明了深度学习技术在处理复杂背景和多尺度目标检测方面的有效性。

        Glod-YOLO和MMDetection则代表了目标检测技术的最新进展。Glod-YOLO通过优化YOLO架构,提高了对金字塔特征的利用效率,增强了模型对于多尺度目标的检测能力。MMDetection作为一个开源的目标检测工具箱,集成了多种最新的目标检测算法,为研究人员提供了一个灵活且高效的平台,以探索不同算法在特定任务上的性能。

        尽管深度学习技术在花卉检测与识别任务上取得了显著进展,但仍面临着一系列挑战,如对小尺寸花卉的检测、背景复杂度高的环境适应性、以及不同光照条件下的性能稳定性。未来的研究需要在算法优化、数据增强技术和模型泛化能力方面进行更深入的探索。

2.3 要解决的问题及其方案

2.3.1 要解决的问题

        在构建基于YOLOv8/v7/v6/v5的花卉检测与识别系统中,我们面临的核心挑战以及针对这些挑战的具体问题分析如下:

  1. 花卉种类识别的准确性和速度
    花卉检测与识别的核心挑战在于如何实现对多种花卉的高准确度识别与实时处理。鉴于花卉的种类极为繁多,每种花卉可能具有不同的颜色、形状和大小,系统需要能够准确地识别出这些细微的特征差异。此外,花卉在自然或人工环境中可能出现的快速变化、部分遮挡和多样化的生长姿态,对识别系统提出了更高的要求。

  2. 环境适应性和模型泛化能力
    自然环境中的多样性对花卉检测与识别系统提出了巨大挑战。不同的光照条件、复杂的背景以及天气变化等因素都可能影响识别的准确率。因此,系统需要具备优秀的环境适应性和强大的模型泛化能力,确保在多变的环境条件下都能维持高识别准确率。

  3. 用户交互界面的直观性和功能性
    为了确保用户能够有效利用花卉检测与识别系统,用户界面的设计至关重要。界面需要直观易用,降低用户的操作难度。同时,功能布局应合理安排,使用户能够快速访问到实时监控、历史数据查询、模型切换等核心功能。

  4. 数据处理能力和存储效率
    考虑到花卉检测与识别任务将处理大量的图像和视频数据,系统必须具备强大的数据处理能力和高效的存储机制。这不仅关系到识别任务的实时性,还涉及到长期数据的管理和查询效率。同时,数据的安全性和隐私保护也是不可忽视的重要因素。

  5. 系统的可扩展性和维护性
    随着研究和应用需求的演进,系统可能需要支持更多种类的花卉检测与识别,或集成新的技术以提升性能。因此,系统设计应考虑未来的可扩展性,允许无缝集成新的模型或功能。此外,系统的维护性也非常关键,保证系统能够持续稳定运作,并能够及时进行更新和升级。

2.3.2 解决方案

        针对我们的花卉检测与识别系统,我们将采用一系列先进的方法来设计和实现一个基于YOLOv8/v7/v6/v5的深度学习框架,同时利用PyTorch作为技术框架,并通过Streamlit来构建一个交互式的网页应用。以下是我们拟采取的具体方法:

  1. 深度学习模型的选择和优化
  • 模型架构:选取YOLOv8作为我们的主要深度学习模型,鉴于其在速度和准确度之间的优秀平衡。YOLOv8的高效性能特别适合于实时的花卉检测任务,同时能够保持较高的准确率。根据需要,系统还将支持YOLOv7、v6和v5,为用户提供多样化的选择。
  • 数据增强:为了提高模型对于不同环境条件下花卉图像的识别能力,我们将采用多种数据增强技术,如随机裁剪、缩放、旋转和色彩调整等。
  • 迁移学习:利用在大规模数据集上预训练的YOLO模型作为起点,采用迁移学习技术对特定的花卉数据集进行微调。这一策略旨在加快训练速度并提升模型的识别性能。
  1. 技术框架和开发工具
  • PyTorch框架:选用PyTorch作为开发深度学习模型的框架,凭借其灵活的编程环境和强大的GPU加速能力,PyTorch适合于快速迭代和开发。
  • Streamlit网页设计:基于Streamlit构建用户交互界面,利用其简洁高效的特点快速开发交互式Web应用。Streamlit的组件和API使得集成深度学习模型到Web应用变得简单直接。
  • PyCharm开发环境:使用PyCharm作为开发IDE,其丰富的功能如代码完成、项目管理和版本控制,为系统开发提供了极大的便利。
  1. 功能实现和系统设计
  • 多输入源支持:系统将支持多种输入源,包括图像文件、视频流和实时摄像头捕捉,满足不同用户场景的需求。
  • 模型切换功能:实现用户友好的模型切换功能,允许用户根据具体需求选择不同版本的YOLO模型进行花卉检测。
  • 交互式网页界面:通过Streamlit实现一个直观且功能丰富的网页界面,用户可以轻松上传图像、视频或直接通过摄像头进行花卉检测,并查看检测结果。
  1. 数据处理和存储策略
  • 高效数据处理:借助PyTorch的高效数据处理机制,系统能够快速处理大量的图像和视频数据,保证实时检测的流畅性。
  • 智能数据存储:设计合理的数据存储方案,有效组织检测结果和历史数据,便于用户查询和分析。同时考虑数据的安全性和隐私保护。
  1. 性能优化
  • 性能调优:通过深入分析模型和系统的性能,识别并解决瓶颈问题,采取如模型压缩、硬件加速等措施进行优化。

2.4 博文贡献与组织结构

        本文深入探讨了花卉检测与识别的前沿技术和应用,涵盖了任务相关的文献综述、数据集处理方法、YOLOv8/v7/v6/v5等算法的选择与优化,以及基于Streamlit的交云式网页设计。通过对YOLO系列算法的细致对比和分析,本文不仅展示了各个版本在花卉检测任务中的效果,还提供了完整的数据集和代码资源包,为研究人员和开发者提供了宝贵的学习和研究资源。下面详述本文的主要贡献:

  1. 详细的文献综述:本文提供了一个全面的文献综述,覆盖了花卉检测与识别领域的最新研究进展,特别是YOLO系列深度学习模型在此领域的应用情况。

  2. 数据集的深入处理:介绍了花卉检测与识别任务中数据集的处理方法,包括数据预处理、增强技术,以及如何有效地利用数据集来提升模型性能。

  3. 算法选择与优化:本文详尽地分析了YOLOv8/v7/v6/v5等算法在花卉检测任务中的应用,包括算法原理、性能优化以及实际应用中的考量因素。

  4. 交云式网页设计:采用Streamlit工具设计了美观友好的网页界面,实现了花卉检测与识别的在线演示,提升了用户体验和互动性。

  5. 算法效果对比:对YOLOv7/v6/v5等算法在花卉检测任务上的效果进行了详细对比,通过实验结果展示了各个版本的优势和局限。

  6. 资源共享:提供了完整的数据集和代码资源包,便于读者下载和使用,促进了技术的学习和研究交流。

        后续章节的组织结构如下: 绪论:介绍研究背景、目的和本文的主要贡献;算法原理:详细介绍YOLOv8/v7/v6/v5等算法的工作原理及其在花卉检测与识别中的应用;数据集处理:讨论使用的数据集及其预处理、增强方法。代码介绍:提供模型训练和预测的详细代码说明,包括环境搭建、参数配置和执行步骤。实验结果与分析:展示不同模型在花卉检测与识别任务上的实验结果,并进行比较分析。系统设计与实现:介绍基于Streamlit的花卉检测与识别系统的设计与实现细节。结论与未来工作:总结本文的研究成果,并讨论未来的研究方向和潜在的改进空间。


3. 数据集处理

        本研究涉及的数据集由总计10,513幅精选图像组成,形成了一个包罗万象的视觉花园。这些图像被细致地分为9,131幅训练用图像,919幅验证用图像,以及463幅测试用图像。如此丰富的数据集保证了我们可以在广泛的样本上训练模型,同时也为模型的性能评估提供了足够的测试案例。博主使用的类别如下:

Chinese_name = {'15': "15", 'Allium': "大葱花", 'Borage': "琉璃苣", 'Burdock': "牛蒡", 'Calendula': "金盏花",
                'Chicory': "菊苣", 'Chive blossoms': "韭菜花", 'Coltsfoot': "款冬", 'Common mallow': "锦葵",
                'Common yarrow': "洋蓍草", 'Coneflower': "金光菊", 'Cow parsley': "欧芹", 'Dandelion': "蒲公英",
                'Gardenia': "栀子花"}

        为了确保模型在实际应用中具有广泛的适用性,对图像进行了一系列精心设计的预处理和增强操作。每幅图像首先经过自动方向校正,去除了可能导致模型混淆的EXIF方向信息,这一步保证了所有图像在输入模型之前都拥有统一的方向。随后,图像被重新调整尺寸至416x416像素,适配了YOLO模型的输入要求,同时确保了数据在视觉上的一致性。在此基础上,数据集增强的步骤包括有概率的水平翻转、随机旋转、曝光调整以及高斯模糊,这些技术增加了数据的多样性,提高了模型对真实世界条件的适应力。此外,9%的像素受到椒盐噪声的影响,增加了模型对噪声的鲁棒性。

在这里插入图片描述

        数据集的分布可视化告诉了我们更多故事。类别分布图显示了一个不平衡的现实,其中“Allium”类别的实例数遥遥领先,而“Gardenia”类别的样本数量最少。这种不平衡要求我们在模型训练时采用策略,如类别权重调整或过/欠采样方法,以防止模型偏向那些更常见的类别。对象尺寸和位置的分布密度图揭示了图像中对象的集中趋势以及多样化的尺寸比例。这种分布特征启示我们需要训练一个对图像中心和边缘区域同样敏感的模型,并且能够识别不同大小的花卉。边界框的重叠程度表明了存在一定数量的遮挡情况,这对检测算法的准确性是一个考验。

在这里插入图片描述

        总的来说,我们的数据集既考虑了多样性,也注重了平衡性和质量,从多角度对花卉进行了全面的捕捉。通过这些精细的准备工作,我们不仅为深度学习模型的训练铺平了道路,也为后续的实验结果分析和系统实现提供了坚实的基础。


4. 原理与代码介绍

4.1 YOLOv8算法原理

        YOLOv8 是最新的最先进的 YOLO 模型,它在以前成功的 YOLO版本基础上,引入了新的功能和改进,进一步提升了其性能和灵活性,能够更好得适应各种目标检测任务。

        首先,YOLOv8在输入处理上采用了Mosaic数据增强方法,该方法通过将四张训练图像拼接成一张大图像,并在这个大图像上执行随机裁剪,有效地增加了模型训练时的背景复杂性和目标尺度变化。这种数据增强技术不仅提高了模型对不同尺寸目标的识别能力,而且增强了模型对多样化背景的适应性。此外,与YOLOv4时代相比,现在的YOLOv8能够处理更大的图像输入,这意味着更多的细节可以被捕捉,从而提高了模型在复杂场景下的精确度。

        YOLOv8的网络结构是它的核心创新之一。它构建在YOLOv7的基础上,继承并改进了ELAN(Enhanced Layer Aggregation Network)的设计理念,同时引入了新的特征聚合机制来增强特征的表达能力。YOLOv8的网络结构优化了特征传递路径,减少了信息损失,并增强了不同尺度特征的融合能力,这对于提升模型对小目标的检测性能尤为重要。

        在主干网络设计方面,YOLOv8采用了CBS(Cross-Stage-Partial connections)技术,这是一种改进的特征传递方式,通过跨阶段连接提高信息流的效率。此外,YOLOv8的C2F(Coarse-to-Fine)结构进一步优化了细粒度特征的利用。与YOLOv5的C3模块相比,YOLOv8的C2F模块通过精细化的特征处理策略,能够更有效地捕捉到细小目标的特征,这对于识别水果这类小型或远距离目标尤为重要。SPPF(Spatial Pyramid Pooling-Fast)模块是对YOLOv5中的SPP模块的改进,它能够通过池化操作快速提取不同尺度的上下文信息,而BottleneckCSP则是一种高效的特征聚合模块,用于增强网络的学习能力和特征表达。

在这里插入图片描述

         在Neck部分,YOLOv8延续并优化了YOLOv5采用的特征金字塔网络(Feature Pyramid Network, FPN)和路径聚合网络(Path Aggregation Network, PAN)的设计。FPN和PAN的结合增强了模型在不同尺度上的特征提取能力,使得网络不仅能够检测大尺寸目标,还能敏锐捕捉到小尺寸目标。FPN通过从低到高的层级结构融合不同分辨率的特征信息,增强了模型在多尺度检测能力,而PAN则反向进行特征聚合,确保了从高分辨率层传递的细节信息不会丢失。这种结构设计充分利用了YOLOv8在深层网络和浅层网络中学到的信息,使得模型在处理复杂背景和不同大小目标时更为精确。

        Head部分是YOLOv8进行目标分类和定位的核心,这一部分对检测的准确性起着决定性作用。YOLOv8采用了解耦头部(Decoupled Head)的设计,这意味着分类和定位任务被分开处理,以提高网络在处理这两个不同任务时的专注度和效率。在实际应用中,这种设计允许模型更灵活地调整分类和定位的特征提取策略,提高了检测的准确度。YOLOv8也继续使用Anchor-Based的方法,即预定义的锚点框帮助模型预测物体的位置,但是在YOLOv8中,这一机制被进一步优化,以适应更多样化的目标形状和尺寸。

        总的来说,YOLOv8算法的Neck和Head部分的设计体现了在现有算法基础上的深度优化和创新。这些优化不仅增强了模型的特征提取能力,也提升了模型在不同任务中的专注度和精确度,从而确保了在各种复杂环境下对目标进行有效检测的能力。这样的技术进步为我们在水果质量识别等具体应用中提供了强大的技术支持,使得YOLOv8能够在众多目标检测算法中脱颖而出。

4.2 模型构建

        我们的目标检测系统是基于PyTorch深度学习框架构建的,该系统不仅采用了先进的YOLOv8/v7/v6/v5算法进行花卉检测,还通过Streamlit框架设计了一个用户友好的前端界面,允许用户上传图片并接收模型识别结果。

        首先,我们导入必要的库。cv2(OpenCV库)用于执行图像操作,如读取、显示和保存图像;而PyTorch提供了构建和训练神经网络的基础设施。我们还引入了专门用于目标检测的定制库和类,如Detector和HeatmapGenerator,以及提供模型加载和设备选择功能的ultralytics库。

import cv2
import torch
from QtFusion.models import Detector
from datasets.label_name import Chinese_name
from ultralytics import YOLO
from ultralytics.utils.torch_utils import select_device

        为了运行花卉检测与识别任务,我们首先需要选择合适的计算设备。在这段代码中,这是通过检查是否有CUDA(即NVIDIA的GPU加速计算平台)可用来实现的。代码中定义的ini_params字典包含了各种配置参数,这些参数对于模型性能的微调至关重要。例如,conf参数设置了检测过程中的置信度阈值,这是决定一个预测是否应被视为有效检测的关键指标。IOU阈值是另一个重要的参数,它用于在非极大抑制过程中过滤掉重叠的预测框。

device = "cuda:0" if torch.cuda.is_available() else "cpu"
ini_params = {
    'device': device,
    'conf': 0.25,
    'iou': 0.5,
    'classes': None,
    'verbose': False
}

        通过count_classes函数,我们可以统计每个类别的出现次数,为评估模型在不同类别上的性能提供了便利。这在实际应用中尤为重要,因为它帮助我们了解模型对于数据集中的各个类别是否存在偏差。

def count_classes(det_info, class_names):
    count_dict = {name: 0 for name in class_names}
    for info in det_info:
        class_name = info['class_name']
        if class_name in count_dict:
            count_dict[class_name] += 1
    count_list = [count_dict[name] for name in class_names]
    return count_list

        在YOLOv8v5Detector类中,我们加载并预热了模型,并将其配置为使用GPU或CPU。这个类的load_model方法将模型路径作为参数,并将模型加载到选择的设备上。在模型加载后,通过重写Detector类的方法,我们实现了模型的预处理、预测和后处理。在preprocess方法中,我们将图像保存为类的状态,以便后续步骤中使用。predict方法则负责在图像上运行模型并获取原始预测结果。

class YOLOv8v5Detector(Detector):
    def __init__(self, params=None):
        super().__init__(params)
        self.model = None
        self.img = None
        self.names = list(Chinese_name.values())
        self.params = params if params else ini_params
	def load_model(self, model_path):
	    self.device = select_device(self.params['device'])
	    self.model = YOLO(model_path)
	    names_dict = self.model.names
	    self.names = [Chinese_name[v] if v in Chinese_name else v for v in names_dict.values()]
	    self.model(torch.zeros(1, 3, *[self.imgsz] * 2).to(self.device).type_as(next(self.model.model.parameters())))
	def preprocess(self, img):
	    self.img = img
	    return img
	
	def predict(self, img):
	    results = self.model(img, **ini_params)
	    return results
	
	def postprocess(self, pred):
	    results = []
	    for res in pred[0].boxes:
	        for box in res:
	            class_id = int(box.cls.cpu())
	            bbox = box.xyxy.cpu().squeeze().tolist()
	            bbox = [int(coord) for coord in bbox]
	            result = {
	                "class_name": self.names[class_id],
	                "bbox": bbox,
	                "score": box.conf.cpu().squeeze().item(),
	                "class_id": class_id,
	            }
	            results.append(result)
	    return results
	    
    def set_param(self, params):
        self.params.update(params)

        在模型提供了预测之后,postprocess方法被用来解析这些预测。在后处理步骤中,我们从YOLO的输出中提取类别名称、边界框坐标和置信度分数。这里的关键点是将模型的输出转换为更加可读和易于理解的格式,这样最终用户能够直观地看到每个检测对象的详细信息。为了提供灵活性,set_param方法允许用户动态更改模型参数,如置信度阈值和IOU阈值。这使得用户可以根据不同的使用场景调整模型的敏感度。

        整体而言,这段代码揭示了构建一个完整的花卉检测系统背后的复杂性和精妙设计。通过这些构建块,我们为用户提供了一个强大且可定制的检测工具,它不仅能够准确识别各种花卉,还可以通过简洁的界面提升用户体验。

4.3 训练代码

        在深入了解花卉检测与识别模型的训练过程时,我们关注的焦点不仅仅是代码的结构,还包括其背后的逻辑和意图。训练一个深度学习模型涉及多个环节,从数据的准备到模型的选择,再到训练的执行和监控。接下来,让我们逐一解析这个过程中的关键步骤。以下表格详细介绍了YOLOv8模型训练中使用的一些重要超参数及其设置:

超参数设置说明
学习率(lr00.01决定了模型权重调整的步长大小,在训练初期有助于快速收敛。
学习率衰减(lrf0.01控制训练过程中学习率的降低速度,有助于模型在训练后期细致调整。
动量(momentum0.937加速模型在正确方向上的学习,并减少震荡,加快收敛速度。
权重衰减(weight_decay0.0005防止过拟合,通过在损失函数中添加正则项减少模型复杂度。
热身训练周期(warmup_epochs3.0初始几个周期内以较低的学习率开始训练,逐渐增加到预定学习率。
批量大小(batch16每次迭代训练中输入模型的样本数,影响GPU内存使用和模型性能。
输入图像大小(imgsz640模型接受的输入图像的尺寸,影响模型的识别能力和计算负担。

        环境设置与模型加载:首先,我们导入了必要的Python库和模块。这里,os和yaml库用于处理文件和配置,而torch库是PyTorch框架的核心,提供深度学习功能支持。YOLO模型是目标检测任务中使用的核心模型,而abs_path函数用于生成文件的绝对路径。

import os
import torch
import yaml
from ultralytics import YOLO  # 用于加载YOLO模型
from QtFusion.path import abs_path  # 用于获取文件的绝对路径

        选择正确的硬件资源对于训练效率和模型性能至关重要。在我们的脚本中,首先检查GPU的可用性,并据此设置设备变量。使用GPU进行训练是因为它们拥有并行处理能力,可以显著加快深度学习模型训练的速度。

device = "0" if torch.cuda.is_available() else "cpu"

        数据集准备:workers参数设置了在数据加载时使用的子进程数,而batch定义了每批训练数据的大小。data_name变量定义了数据集的名称,data_path变量存储了数据集配置文件的绝对路径。我们将路径转换为Unix风格,以确保跨平台兼容性。

workers = 1  # 工作进程数
batch = 8  # 每批处理的图像数量
data_name = "Flower"
data_path = abs_path(f'datasets/{data_name}/{data_name}.yaml', path_type='current')
unix_style_path = data_path.replace(os.sep, '/')

        为了保证文件路径的一致性和正确性,我们采用了os和yaml库对数据配置文件进行读取和修改。这项工作确保了无论在什么系统上,无论代码运行在哪个目录下,路径总能被正确解析。

directory_path = os.path.dirname(unix_style_path)
with open(data_path, 'r') as file:
    data = yaml.load(file, Loader=yaml.FullLoader)

if 'path' in data:
    data['path'] = directory_path
    with open(data_path, 'w') as file:
        yaml.safe_dump(data, file, sort_keys=False)

        训练模型:最后,我们加载预训练的模型权重,并通过train方法配置了训练的各项参数,如数据集路径、设备类型、工作进程数、输入图像尺寸、训练周期(epochs)和批次大小。name参数则为训练任务提供了一个描述性的名称,以便于后续的识别和参考。

model = YOLO(abs_path('./weights/yolov5nu.pt', path_type='current'), task='detect')  # 加载预训练的YOLOv8模型
# model = YOLO('./weights/yolov5.yaml', task='detect').load('./weights/yolov5nu.pt')  # 加载预训练的YOLOv8模型
# Training.
results = model.train(  # 开始训练模型
    data=data_path,  # 指定训练数据的配置文件路径
    device=device,  # 自动选择进行训练
    workers=workers,  # 指定使用2个工作进程加载数据
    imgsz=640,  # 指定输入图像的大小为640x640
    epochs=120,  # 指定训练100个epoch
    batch=batch,  # 指定每个批次的大小为8
    name='train_v5_' + data_name  # 指定训练任务的名称
)
model = YOLO(abs_path('./weights/yolov8n.pt'), task='detect')  # 加载预训练的YOLOv8模型
results2 = model.train(  # 开始训练模型
    data=data_path,  # 指定训练数据的配置文件路径
    device=device,  # 自动选择进行训练
    workers=workers,  # 指定使用2个工作进程加载数据
    imgsz=640,  # 指定输入图像的大小为640x640
    epochs=120,  # 指定训练100个epoch
    batch=batch,  # 指定每个批次的大小为8
    name='train_v8_' + data_name  # 指定训练任务的名称
)

        通过这段代码,我们可以启动一个针对特定数据集的模型训练任务。整个过程充分考虑了现代目标检测任务的需要,从而能够有效地训练出一个高性能的花卉检测模型。


5. 实验结果与分析

5.1 训练曲线

        在深度学习中,损失函数图像的分析对于理解模型训练的动态过程至关重要。通过这些图表,我们能够洞察模型在训练过程中的性能变化,从而对模型的行为和潜在的问题有一个更深入的理解。

在这里插入图片描述

        在我们的花卉检测项目中,利用YOLOv8进行训练时得到的损失和性能指标图表为我们提供了丰富的信息。首先,观察到的是三种不同类型的损失函数图像:框损失(box_loss)、分类损失(cls_loss)和目标损失(dfI_loss)。在训练损失图表中,我们可以看到这些损失随着训练进程逐渐下降,这是模型学习从数据中提取特征并改善其预测的直观表示。降低的损失曲线表明模型在理解训练数据方面正在取得进步。

        具体来说,框损失的降低表明模型在定位花卉对象方面的性能逐步提高。分类损失的下降说明模型在区分不同花卉种类方面变得更加精准。而目标损失的减小则意味着模型在预测图像中是否存在对象的能力上也在提升。然而,在验证损失图表中,我们注意到损失曲线呈现波动的趋势,这可能指出模型在训练集上表现良好,但在未见过的验证集上的泛化能力还有提升的空间。

        在性能指标方面,精确度(precision)和召回率(recall)的图表反映了模型识别正类实例的能力。较高的精确度表明当模型预测图像中存在花卉时通常是正确的,而召回率的提高则意味着模型能够识别出大多数实际存在的花卉对象。这两个指标的稳定高值对于我们的花卉检测任务来说至关重要,因为它们直接影响到用户在实际应用中的体验。

        mAP(mean Average Precision)是另一个核心指标,它提供了模型性能的整体评估。我们看到在图表中,mAP的值在训练过程中逐步上升,这说明模型在各个阈值下识别对象的能力整体上有所提升。特别是mAP@0.5,这个指标反映了模型在较为宽松的IOU阈值下的性能,而mAP@0.5-0.95则给出了在更严格条件下的评估,覆盖了从较宽松到较严格的一系列IOU阈值。

5.2 PR曲线图

        Precision-Recall (PR) 曲线是衡量模型性能的重要工具,尤其在目标检测任务中,它能够详细地展现模型对于不同类别对象识别的准确性和完整性。在本花卉检测项目中,我们的模型被细致地评估,其性能通过一系列的PR曲线来呈现。

在这里插入图片描述

        PR曲线中的精确度(Precision)是指模型正确检测到的正类样本占所有被检测为正类的样本的比例。而召回率(Recall)则衡量了模型正确检测到的正类样本占所有正类样本的比例。一个理想的模型应该同时具有高精确度和高召回率,这意味着它不仅能检测出大部分正类对象,而且所做的预测也高度可靠。

        分析PR曲线图表,我们可以观察到不同类别的花卉检测性能存在显著差异。例如,“Gardenia”类别的曲线表现出非常高的精确度和召回率,几乎接近理想状态,这意味着模型能够极其准确地检测到此类花卉。而对于“Common mallow”类别,则呈现出较低的精确度和召回率,这可能表明模型在识别这类花卉时面临挑战,或者训练数据不足,导致模型难以学习其特征。

        平均精度均值(mean Average Precision, mAP)为0.745 mAP@0.5,这是一个综合所有类别的单一性能指标。在IOU阈值设定为0.5的条件下,mAP提供了模型整体性能的评估。在我们的情况下,0.745的mAP指标表明模型具有良好的整体性能,尽管在某些特定类别上可能仍有改进的空间。

        通过深入分析每个类别的PR曲线,我们可以进一步优化训练过程和数据集。对于性能较差的类别,可以通过增加训练样本、改善数据增强策略或调整类别权重等方式进行改进。此外,综合所有类别的性能指标揭示了模型的泛化能力,为我们提供了模型优化和调整的方向。

5.3 YOLOv8/v7/v6/v5对比实验

(1)实验设计
        本实验旨在评估和比较YOLOv5、YOLOv6、YOLOv7和YOLOv8几种模型在花卉目标检测任务上的性能。为了实现这一目标,博主分别使用使用相同的数据集训练和测试了这四个模型,从而可以进行直接的性能比较。该数据集包含花卉的图像。本文将比较分析四种模型,旨在揭示每种模型的优缺点,探讨它们在工业环境中实际应用的场景选择。

模型图像大小 (像素)mAPval 50-95CPU ONNX 速度 (毫秒)A100 TensorRT 速度 (毫秒)参数数量 (百万)FLOPs (十亿)
YOLOv5nu64034.373.61.062.67.7
YOLOv8n64037.380.40.993.28.7
YOLOv6N64037.5--4.711.4
YOLOv7-tiny64037.4--6.0113.1

(2)度量指标

  • F1-Score:F1-Score 作为衡量模型性能的重要指标,尤其在处理类别分布不均的数据集时显得尤为关键。它通过结合精确率与召回率,提供了一个单一的度量标准,能够全面评价模型的效能。精确率衡量的是模型在所有被标记为正例中真正属于正例的比例,而召回率则关注于模型能够识别出的真正正例占所有实际正例的比例。F1-Score通过两者的调和平均,确保了只有当精确率和召回率同时高时,模型的性能评估才会高,从而确保了模型对于正例的预测既准确又完整。
  • mAP(Mean Average Precision):在目标检测任务中,Mean Average Precision(mAP)是评估模型性能的重要标准。它不仅反映了模型对单个类别的识别精度,而且还考虑了所有类别的平均表现,因此提供了一个全局的性能度量。在计算mAP时,模型对于每个类别的预测被单独考虑,然后计算每个类别的平均精度(AP),最后这些AP值的平均数形成了mAP。
名称YOLOv5nuYOLOv6nYOLOv7-tinyYOLOv8n
mAP0.7430.7480.7050.745
F1-Score0.700.720.680.70

(3)实验结果分析

       在深度学习领域,模型性能的对比分析是至关重要的环节,它不仅揭示了不同模型在特定任务上的优劣,也为未来的研究方向提供了指导。在本次实验中,我们比较了四种不同版本的YOLO模型在相同的花卉检测数据集上的表现。实验的主要目的是评估和理解每个模型在精度和回召率方面的性能,以及这些模型如何在实际应用中实现最佳的检测效果。

       实验结果显示,YOLOv6n在平均精度(mAP)上略高于其他模型,而在F1-Score上,YOLOv6n和YOLOv8n展现出相似的性能,均优于YOLOv5nu和YOLOv7-tiny。mAP是一个衡量检测准确性的指标,它考虑了所有可能的阈值下模型的表现,而F1-Score则是精确度和召回率的调和平均,更侧重于模型对正类样本的检测能力。YOLOv6n的表现说明了其在平衡召回率和精确度方面有较好的综合性能,这对于我们的花卉检测任务来说是一个重要的优点,因为它能减少漏检和误检的情况。

       值得注意的是,YOLOv7-tiny在这两项指标上的表现相对较弱。作为一个轻量级的模型,YOLOv7-tiny的设计是为了在计算资源有限的场景下提供快速的检测速度,因此在模型复杂度和性能之间可能做出了一些妥协。其较低的F1-Score和mAP可能是由于网络深度和参数数量减少,导致的特征提取能力不足,无法有效地捕捉到所有类别的花卉特征。

在这里插入图片描述

        从实验结果中我们也可以发现,YOLOv5nu和YOLOv8n的F1-Score相同,但YOLOv8n的mAP略高。这表明在某些情况下,YOLOv8n可能在定位准确性上更胜一筹,但在综合性能上并没有显著优于YOLOv5nu。YOLOv5nu作为一种更早期的版本,已经经过了广泛的测试和优化,而YOLOv8n作为新一代模型,可能在特定类别上有所突破,但整体上的优化空间还有待开发。

        总结来说,YOLO系列模型在花卉检测任务上的性能有所差异,这些差异可能源于模型结构、特征提取能力以及训练数据的充分性等多方面因素。通过对比分析,我们可以针对具体的应用场景选择合适的模型,并在必要时对模型结构或训练策略进行调整,以期获得更好的检测效果。未来的工作可以包括优化模型结构、增加训练数据的多样性以及探索更先进的训练技术,以进一步提升模型在花卉检测任务上的性能。


6. 系统设计与实现

6.1 系统架构概览

        在本篇博客中,我们将深入探讨基于YOLOv8/v7/v6/v5的花卉检测与识别系统的架构设计。该系统旨在通过利用深度学习技术,准确识别和检测图片或视频流中的花卉。本系统的设计融合了灵活的模块化架构,主要包含以下几个核心组件:Detection_UI, YOLOv8v5Detector, LogTable, 以及辅助的功能模块如utils_web等。这些组件协同工作,实现从图像预处理、模型预测到结果展示和日志记录的完整流程。

在这里插入图片描述

1. Detection_UIDetection_UI类是整个系统的用户界面(UI)和交互入口,它封装了与用户交互的逻辑,包括但不限于模型选择、置信度设置、文件上传等。此类通过streamlit库构建动态网页界面,提供用户友好的操作体验。 setup_pagesetup_sidebar方法用于初始化页面布局和侧边栏配置,允许用户定制化模型参数,选择输入源(摄像头或文件)。process_camera_or_file方法负责处理来自摄像头或上传文件的输入,调用模型执行检测,并将结果反馈给用户。

2. YOLOv8v5DetectorYOLOv8v5Detector类封装了模型的加载、预处理、预测以及后处理等核心功能。这是系统的计算核心,直接关系到检测的效率和准确率。load_model方法用于加载预训练的YOLO模型。preprocesspostprocess方法分别负责对输入图像进行预处理和对模型预测结果进行后处理,确保数据格式适配且结果易于解析。predict方法则负责执行模型的前向传播,生成检测结果。

3. LogTableLogTable类提供了一个简单而强大的日志记录功能,能够将检测过程中产生的关键信息(如检测目标、位置、置信度等)记录下来,支持后续的分析和查阅。 add_log_entrysave_to_csv方法用于新增日志条目和将日志保存为CSV文件,便于持久化存储和分享。

4. 辅助模块:除了上述主要组件外,系统还集成了多个辅助模块如utils_web等,提供如文件上传保存、图像显示等辅助功能,增强了系统的可用性和灵活性。

6.2 系统流程

        在本节中,我们将详细介绍基于YOLOv8/v7/v6/v5的花卉检测与识别系统的工作流程。为了使解释更为清晰,我们将流程分解为几个主要步骤,并以程序流程图的形式进行文字描述。这有助于读者理解系统如何从接收输入到展示检测结果的全过程。

在这里插入图片描述

  1. 启动系统 & 初始化配置:系统启动时,首先实例化Detection_UI类,该类负责初始化网页界面设置(setup_page),包括页面标题、图标等。接着,通过setup_sidebar方法配置侧边栏,包括模型设置、摄像头配置和识别项目设置等,为用户提供交互式配置选项。

  2. 用户配置选择:用户在侧边栏选择模型类型、置信度阈值、IOU阈值、摄像头及文件类型等参数。根据用户选择的文件类型,提供相应的文件上传器。

  3. 加载 & 配置模型:根据用户选择,通过YOLOv8v5Detector类的load_model方法加载对应的YOLO模型。配置模型参数,包括置信度阈值和IOU阈值,准备模型进行检测。

  4. 处理输入:根据用户选择的输入源(摄像头或文件),process_camera_or_file方法负责处理输入。对于摄像头输入,使用OpenCV捕获视频帧;对于文件上传,则读取上传的图片或视频文件。

  5. 图像预处理 & 模型预测:对输入图像进行预处理(preprocess方法),包括调整图像大小等,以适配模型输入要求。使用predict方法执行模型预测,生成检测结果。

  6. 后处理 & 展示结果:对模型的预测结果进行后处理(postprocess方法),解析检测目标的类别、位置和置信度等信息。根据检测结果,通过drawRectBox等函数在图像上绘制检测框和类别标签。将处理后的图像和检测结果展示在网页界面上。

  7. 记录 & 导出日志:检测过程中的关键信息(如检测目标、位置、置信度)通过LogTable类记录下来。用户可选择导出日志信息为CSV文件,方便后续分析和存档。

  8. 结束 & 清理:用户可以随时停止检测过程。 系统会自动释放资源,如关闭摄像头、清理临时文件等,确保系统的稳定运行。

        通过上述步骤,系统能够实现从用户配置、模型加载到图像处理、检测及结果展示的完整流程,为用户提供一个高效、准确的花卉检测与识别服务。整个流程的设计充分考虑了用户交互的便捷性和模型处理的高效性,确保即使是非专业用户也能轻松上手,快速获得所需的检测结果。


代码下载链接

        如果您希望获取博客中提及的完整资源包,包含测试图片、视频、Python文件(*.py)、网页配置文件、训练数据集、代码及界面设计等,可访问博主在面包多平台的上传内容。相关的博客和视频资料提供了所有必要文件的下载链接,以便一键运行。完整资源的预览如下图所示:

在这里插入图片描述

        资源包中涵盖了你需要的训练测试数据集、训练测试代码、UI界面代码等完整资源,完整项目文件的下载链接可在下面的视频简介中找到➷➷➷

演示及项目介绍视频:https://www.bilibili.com/video/BV1Uf421o7kX/

在这里插入图片描述

完整安装运行教程:

        这个项目的运行需要用到Anaconda和Pycharm两个软件,下载到资源代码后,您可以按照以下链接提供的详细安装教程操作即可运行成功,如仍有运行问题可私信博主解决:

  1. Pycharm和Anaconda的安装教程https://deepcode.blog.csdn.net/article/details/136639378

        软件安装好后需要为本项目新建Python环境、安装依赖库,并在Pycharm中设置环境,这几步采用下面的教程可选在线安装(pip install直接在线下载包)或离线依赖包(博主提供的离线包直接装)安装两种方式之一:

  1. Python环境配置教程https://deepcode.blog.csdn.net/article/details/136639396(2,3方法可选一种);
  2. 离线依赖包的安装指南https://deepcode.blog.csdn.net/article/details/136650641(2,3方法可选一种);

        如使用离线包方式安装,请下载离线依赖库,下载地址:https://pan.baidu.com/s/1uHbU9YzSqN0YP_dTHBgpFw?pwd=mt8u (提取码:mt8u)。


7. 结论与未来工作

        本文深入研究并实践了基于YOLOv8/v7/v6/v5的深度学习模型在花卉检测与识别领域的应用,成功开发了一个高效且用户友好的花卉检测与识别系统。通过对YOLO系列模型的多个版本进行细致的比较和系统优化,我们不仅显著提升了花卉检测与识别的准确性和实时性,而且利用Streamlit框架创建了一个直观、美观且易于操作的Web应用。该应用使用户能够无缝地进行花卉种类的检测与识别,展现了深度学习技术在生物多样性保护和研究领域的巨大潜力。

        经过严格的实验验证,本文提出的花卉检测与识别方案在准确率和处理速度方面均达到了高标准。此外,为了促进学术共享和技术传承,我们公开了完整的数据集处理流程、模型训练与预测代码,以及基于Streamlit的系统设计与实现细节,为未来的研究者和开发者提供了宝贵的参考资源。尽管已取得显著进展,花卉检测与识别任务的复杂性仍然带来了许多挑战和改进机会。在未来工作中,我们计划从以下方向进行深入探索:

  • 模型优化:继续深化对网络结构的探索和优化策略的研究,例如采用神经网络架构搜索(NAS)技术,以提升模型的性能和效率。
  • 多模态融合:结合图像之外的模态信息,如文本描述和生态环境数据,采用多模态学习方法进行花卉识别,以丰富检测背景和上下文。
  • 跨域适应性:研究跨地域、跨生态的花卉识别,通过领域适应技术增强模型在不同自然环境下的泛化能力和鲁棒性。
  • 用户交互体验:持续优化系统界面和交互设计,使之更加人性化和智能化,满足更广泛用户群体的需求。
  • 实际应用拓展:将花卉检测与识别技术应用于更多实践场景,如生态保护、教育普及、园艺管理等,发掘其在社会经济发展中的价值。

        花卉检测与识别技术正迎来迅速发展的新阶段,伴随着深度学习技术的不断进步和应用场景的广泛拓展,我们相信在不久的将来,基于YOLOv8/v7/v6/v5的花卉检测与识别技术将在生态研究、环境保护、农业科技等多个领域发挥更重要的作用。


  1. Flores-Calero M, Astudillo C A, Guevara D, et al. Traffic Sign Detection and Recognition Using YOLO Object Detection Algorithm: A Systematic Review[J]. Mathematics, 2024, 12(2): 297. ↩︎

  2. Wen G, Li M, Luo Y, et al. The improved YOLOv8 algorithm based on EMSPConv and SPE-head modules[J]. Multimedia Tools and Applications, 2024: 1-17. ↩︎

  3. Hu H, Li Z, He Z, et al. Road surface crack detection method based on improved YOLOv5 and vehicle-mounted images[J]. Measurement, 2024: 114443. ↩︎

  4. Wang C Y, Yeh I H, Liao H Y M. YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information[J]. arXiv preprint arXiv:2402.13616, 2024. ↩︎

  5. Chen L, Zhou Y, Xu S. ERetinaNet: An efficient neural network based on RetinaNet for mammographic breast mass detection[J]. IEEE Journal of Biomedical and Health Informatics, 2024. ↩︎

好的,为了编写一个基于深度学习花卉识别代码,我们需要进行以下步骤: 1. 数据收集和处理:收集花卉的图片数据集,并对其进行处理和标记,以便用于训练模型。 2. 模型选择和训练:选择适合的深度学习模型,如卷积神经网络(CNN),并使用数据集对其进行训练。 3. 模型评估和调整:评估模型的性能,并进行必要的调整,例如调整超参数或增加更多数据。 4. 预测和部署:使用训练好的模型进行花卉识别的预测,并将其部署到应用程序或网站中。 下面是一个简单的基于CNN的花卉识别代码示例: ``` # 导入必要的库 import tensorflow as tf from tensorflow.keras import layers from tensorflow.keras.preprocessing.image import ImageDataGenerator # 定义数据集路径和图像大小 train_dir = 'flower_photos/train' val_dir = 'flower_photos/val' img_size = (224, 224) # 创建数据生成器 train_datagen = ImageDataGenerator(rescale=1./255) val_datagen = ImageDataGenerator(rescale=1./255) train_generator = train_datagen.flow_from_directory( train_dir, target_size=img_size, batch_size=32, class_mode='categorical' ) val_generator = val_datagen.flow_from_directory( val_dir, target_size=img_size, batch_size=32, class_mode='categorical' ) # 定义CNN模型 model = tf.keras.Sequential([ layers.Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)), layers.MaxPooling2D((2, 2)), layers.Conv2D(64, (3, 3), activation='relu'), layers.MaxPooling2D((2, 2)), layers.Conv2D(128, (3, 3), activation='relu'), layers.MaxPooling2D((2, 2)), layers.Flatten(), layers.Dense(128, activation='relu'), layers.Dropout(0.5), layers.Dense(5, activation='softmax') ]) # 编译模型 model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']) # 训练模型 history = model.fit(train_generator, steps_per_epoch=len(train_generator), epochs=10, validation_data=val_generator, validation_steps=len(val_generator)) # 评估模型 model.evaluate(val_generator) # 保存模型 model.save('flower_classifier.h5') ``` 这个代码使用了一个简单的CNN模型对花卉图片进行分类,使用了ImageDataGenerator进行数据预处理,使用categorical_crossentropy作为损失函数,使用Adam作为优化器,并在训练过程中使用了验证集进行模型评估。最后,我们将训练好的模型保存为flower_classifier.h5文件。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

逗逗班学Python

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值