- 博客(23)
- 收藏
- 关注
原创 基于YOLO11的深学习方法实现采前与采后条件下苹果果面病斑的实时识别与定量分析(瑞士2026年研究)
本研究采用深度学习技术对苹果果实上的AS症状进行目标检测和分割。该模型首先用于检测健康苹果果实(模型1),随后利用高分辨率图像(864×864像素)进行AS病斑的分割(模型2)。苹果疮痂病(AS)由真菌病原体Venturia inaequalis引起,是苹果的主要病害之一,表现为叶片和果实上的病斑。这些结果表明,所提出的基于深度学习的方法为自动化苹果疫霉病(AS)表型分析提供了可靠的流程。该模型在实验室和田间环境中均提升了检测精度与效率,从而优化了苹果分级评估,并加速了抗疫霉病基因型的育种工作。
2026-05-06 15:53:32
165
原创 YOLOv12、YOLO11、YOLOv10、YOLOv9和YOLOv8在以下五个复杂果园环境中的综合性能评估: 复杂果园环境中果实检测与计数(美国康奈尔大学2026年研究)
本研究系统性地对YOLOv8、YOLOv9、YOLOv10、YOLO11(或YOLOv11)及YOLOv12等目标检测算法的所有配置进行了广泛的现实场景评估,评估指标包括精度、召回率、50%交并比下的平均精度(mAP@50),以及包含预处理、推理和后处理在内的计算速度。本研究对三种最先进的YOLO目标检测模型(YOLOv8、YOLOv9、YOLOv10和YOLO11)的多种配置进行了全面评估,旨在检验它们在复杂果园环境中、使用不同传感器和条件下,于疏果前检测绿色苹果的有效性。
2026-05-06 15:41:39
307
原创 DINOv3与YOLO26联合用于蔬菜作物杂草检测(美国密歇根大学2026年研究)
此外,与标准YOLO26-large相比,该模型在2021–2023年度数据集上展现出强劲的跨领域泛化能力(mAP50提升+14.0%),在2024年度数据集上提升+11.9%。本研究提出了一种创新的DINO-YOLO26框架,通过用DINOv3预训练的ViT模型替换原有的YOLO主干网络,显著提升了作物与杂草的检测性能。-YOLO26*)展现出更强的跨领域杂草检测泛化能力,在2021–2023年度数据集上的mAP50提升14.0%,在2024年数据集上提升11.9%,表明其对领域差异具有更强的鲁棒性。
2026-04-30 09:19:02
345
原创 YOLOE-26:利用 YOLOE 集成 YOLO26 实现实时开放词汇实例分割(美国康奈尔大学2026年研究)
本文提出了 YOLOE-26——一个统一框架,它将经过部署优化的YOLO26架构与 YOLOE 的开放词汇学习范式相结合,用于实时开放词汇实例分割。为实现高效的开放词汇推理,该框架整合了支持零开销文本提示的可重参数化区域-文本对齐(RepRTA)、用于示例引导分割的语义激活视觉提示编码器(SAVPE),以及支持无提示推理的惰性区域提示对比机制。大量实验表明,无论在有提示还是无提示场景下,该框架在不同模型规模下均展现出稳定的扩展性能,并实现了优异的精度与效率平衡。
2026-04-30 09:09:04
193
原创 利用最先进的目标检测模型与无损检测技术实现路面结构损伤的自动化识别(美国2024年研究采用中国数据集)
• 在评估的模型中,YOLOv8作为 SOTA 模型表现最优,平均精度(mAP)达98.5%,其准确性和稳定性均优于其他模型。• 所提出的YOLO模型成功评估了路面质量,实现了对结构损伤的清晰识别。研究针对该数据集适配并训练了四种目标检测模型(包括Faster R-CNN、YOLOv5、YOLOv8和DETR),以识别图像中的结构损伤,并对各模型的预测性能进行了比较。结果表明,YOLOv8是当前最先进的模型(SOTA),其能以98.5%的平均精度(mAP)精确识别路面结构损伤的位置和类型。
2026-04-27 12:55:02
33
原创 美国、沙特、澳大利亚、韩国2025年联合研究《在视觉领域基础模型定义新时代:调查和展望》
物体与其位置之间的复杂关系、现实环境中存在的模糊性及多样性,更适宜通过人类语言来描述——这种语言天然遵循语法规则,并融合了音频、深度等其他模态信息。本综述全面梳理了这些新兴基础模型,涵盖整合不同模态(视觉、文本、音频等)的典型架构设计、训练目标(对比式、生成式)、预训练数据集、微调机制,以及文本型、视觉型和异构型等常见提示模式。我们探讨了计算机视觉领域基础模型面临的开放性挑战与研究方向,包括模型评估与基准测试的困难、对现实世界的理解存在不足、上下文理解能力的局限、模型偏差以及对对抗性攻击的脆弱性等问题。
2026-04-26 15:13:07
169
原创 美国2023年研究《YOLOWeeds:一种用于棉花生产系统中多类别杂草检测的YOLO目标检测器新型基准测试方法》
应对这一挑战的前景广阔之策,是构建针对特定种植系统的大规模、带标注的杂草图像数据集,并开发基于数据驱动的人工智能(AI)模型用于杂草检测。本研究提出了一个针对美国南部棉花生产关键杂草的新数据集(CottoWeedDet12),该数据集包含12类杂草的5648张图像,共9370个边界框标注,均采集自棉田自然光照条件下不同生长阶段的样本。本研究使用的杂草检测数据集2及模型基准测试软件代码均已公开发布,这些资源将为推动棉花及其他作物的大数据与人工智能驱动的杂草检测与控制研究提供重要支持。
2026-04-21 06:22:54
341
原创 (美国康奈尔大学研究)ULTRALYTICS YOLO 进化:计算机视觉与模式识别中 YOLO26,YOLO11,YOLOV8,及 YOLOV5 目标检测器概述
这实质上实现了实时检测领域的长期目标:在保持顶尖精度的同时,构建可移植性强且适配性强的图谱,实现从云端GPU到资源受限边缘设备的全场景适配。其重要性涵盖自动驾驶、机器人技术、监控系统、医学影像、农业及智能制造等多个领域,在这些场景中,可靠的实时性能直接转化为安全系数提升、效率优化和自动化增益。YOLO的演进历程如图1所示,从早期Ultralytics版本(如YOLOv5)到最新版本YOLO26(2025),首次实现了目标检测、实例分割、分类、姿态/关键点检测及方向边界框检测五大核心任务的原生整合。
2026-04-21 06:12:00
314
原创 纳米技术2025最新Letter 400W EUV 光刻用金属硅化物 EUV 薄膜的制备与优化(韩国)
极紫外(EUV)薄膜、金属硅化物基薄膜(MeSix)、自由支撑薄膜、氢自由基
2026-04-20 05:44:47
1113
原创 WORD一定要记住的高清图片展示技巧
选择最左端一栏“调整”,“颜色”右边小方框图标“压缩图片”。分辨率选择HD最好,其次为打印220ppi。选中图片,选择右上角“图片格式”。
2026-04-18 11:49:55
294
原创 VISIO输出高清图片技巧
300*300是比较合适的选择,可以满足word的展示需求。如果选择JPG格式的话,里右上角还有一个百分比需要调整到100%(默认75%)。在word中,我们一般需要高清图片进行良好的展示,尤其是来自visio的图片。以下几个技巧你需要记住。
2026-04-17 21:18:26
25
翻译 面向开放世界目标检测的未知物体无监督识别方法——北航研究
摘要:开放世界目标检测(OWOD)将目标检测问题拓展至真实动态场景,要求检测模型既能识别已知目标,又能检测未知目标,并能持续学习新引入的知识。现有 OWOD 模型(如ORE和OW-DETR)主要通过将具有高目标性评分的区域伪标记为未知区域,其性能高度依赖已知目标的监督标注。虽然这些模型能检测到与已知目标特征相似的未知目标,但存在严重的标签偏差问题——它们往往将所有与已知目标特征不相似的区域(包括未知目标区域)误判为背景。为消除标签偏差,本文提出了一种创新方法:通过无监督判别模型学习,从无监督区域提议方法生成
2026-04-17 21:04:38
56
原创 (T-Rex Label小技巧)高效标注/密集场景标注/智能标注 标注工具
在使用T-Rex Label的AI标注功能进行标注的时候,系统给定的锚框往往会有一些误差,如何将这些错误锚框快速删除呢?如图,鼠标指针在右侧方框区域上下滑动,同时眼睛关注锚框的变化(颜色变化以及上方闪现的数字),就能快速对错误锚框进行定位从而删除。
2025-03-23 10:20:02
645
原创 visio怎么让连接线不捕捉矩形的中点(visio2021)小技巧
首先在开了“粘附”的情况下画连接线,然后按“Alt”+“F9”打开“对齐和粘附”工具框,关闭“粘附”,如图。有时想让vision达到这样的效果,但开了“粘附”后往往只能捕捉到矩形的中点,如下图。然后在选择指针工具的情况下(如下图)移动连接点,即可达到理想状况了。
2025-03-19 10:04:07
3620
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅