随着数字化和信息化的快速发展,大量的文档(如合同、报告、表格、发票等)以电子形式存在,这些文档中包含了丰富的信息。然而,这些信息往往以非结构化的形式存在,难以直接被计算机程序理解和处理。文档布局分析任务的目的就是将这些非结构化的文档转换为结构化的数据,从而使得计算机能够自动地理解、分类、检索和处理这些文档中的信息。
为了推动文档布局分析技术的发展,需要一个大规模、多样性、高质量的数据集来训练和评估模型。DocLayNet数据集的构建正是出于以下几个需要:
模型训练:大规模的数据集可以为模型训练提供丰富的数据资源,帮助模型学习到更复杂的文档布局特征。
模型评估:高质量的数据集可以用于模型的评估,确保模型的性能和泛化能力。
技术研究:多样性的数据集可以支持多种文档布局分析技术的研究,推动技术的创新和发展。
应用开发:数据集的构建为开发实际应用提供了基础,如自动文档处理系统、信息提取工具等。
DocLayNet是一个大规模的数据集,专门用于文档布局分析任务。该数据集由德国人工智能研究中心(DFKI)和萨尔大学联合开发,旨在推动文档理解技术的发展。DocLayNet数据集包含了多种类型的文档,如合同、表格、发票、简历等,总计超过10万页的文档图像。
【数据集特点】
多样性:DocLayNet包含了多种类型的文档,涵盖了广泛的领域和格式,确保了数据集的多样性和实用性。
大规模:数据集包含超过10万页的文档图像,为模型训练提供了丰富的数据资源。
高质量标注:每页文档都经过了详细的标注,包括文本区域、表格、图像、标题、段落等元素的位置和类别信息。
多语言支持:数据集中的文档包含了多种语言,有助于模型在多语言环境下的泛化能力。
【数据格式】
DocLayNet数据集的标注信息以JSON格式提供,每个文档的标注文件包含了以下信息:
页面信息:每个页面的尺寸、分辨率等基本信息。
区域标注:每个页面上的不同区域(如文本、表格、图像等)的位置和类别信息。
文本内容:每个文本区域的具体文本内容(可选)。
【应用场景】
DocLayNet数据集主要用于以下几个方面的研究和应用:
文档布局分析:识别和理解文档中的不同布局元素,如文本、表格、图像等。
文档分类:根据文档的布局和内容,对文档进行分类。
信息提取:从文档中提取特定信息,如合同中的条款、发票中的金额等。
文档理解:通过分析文档的布局和内容,理解文档的整体结构和含义。
本文的主要目的就是想要基于大规模文档布局分析数据集DocLayNet来尝试开发构建相应的目标检测分析系统,在前文我们已经有了相关的开发实践感兴趣的话可以自行移步阅读即可:
《探索分析文档布局,基于YOLOv3全系列【yolov3tiny/yolov3/yolov3spp】参数模型开发构建大规模文档数据集DocLayNet场景下文档图像布局智能检测分析识别系统》
《探索分析文档布局,基于YOLOv5全系列【n/s/m/l/x】参数模型开发构建大规模文档数据集DocLayNet场景下文档图像布局智能检测分析识别系统》
《探索分析文档布局,基于YOLOv7全系列【tiny/l/x】参数模型开发构建大规模文档数据集DocLayNet场景下文档图像布局智能检测分析识别系统》
《探索分析文档布局,基于YOLOv8全系列【n/s/m/l/x】参数模型开发构建大规模文档数据集DocLayNet场景下文档图像布局智能检测分析识别系统》
本文主要是想要基于YOLOv9全系列的参数模型来开发构建对应的检测系统,首先看下实例效果:
简单看下实例数据:
关于YOLOv9的论文相关的介绍可以看这里:
《太卷了,目标检测新成员——YOLOv9: Learning What You Want to LearnUsing Programmable Gradient Information他来了》
如果想要基于YOLOv9从零开始开发构建自己的个性化目标检测系统,可以参照这里:
《基于YOLO家族最新模型YOLOv9开发构建自己的个性化目标检测系统从零构建模型完整训练、推理计算超详细教程【以自建数据酸枣病虫害检测为例】》
YOLOv9的作者人为很多模型设计过程中现有的方法忽略了一个事实,即当输入数据经过逐层特征提取和空间变换时,会丢失大量信息。目前,可以缓解这一现象的主要方法为:(1)可逆架构的使用:使用重复输入数据并以显式方式保持输入数据的信息;(2)掩码建模的使用:利用重构损失并采用隐式方式来最大化提取的特征并保留输入信息;以及(3)深监督概念的引入:使用未丢失太多重要信息的浅层特征预先建立从特征到目标的映射,以确保重要信息能够传递到更深的层次。然而,上述方法在训练过程和推理过程中存在不同的缺点。例如,可逆架构需要额外的层来组合重复馈送的输入数据,这将显著增加推理成本。此外,由于输入数据层到输出层不能有太深的路径,这种限制将使得在训练过程中对高阶语义信息的建模变得困难。至于掩码建模,其重构损失有时会与目标损失冲突。此外,大多数掩码机制还会与数据产生不正确的关联。对于深监督机制,它将产生误差积累,如果浅监督在训练过程中丢失信息,那么后续层将无法检索到所需的信息。上述现象在困难任务和小模型上将更为显著。所以作者深入研究数据通过深度网络传输时数据丢失的重要问题,即信息瓶颈和可逆函数进而提出了可编程梯度信息(PGI)以应对深度网络实现多个目标所需的各种变化。PGI可以为目标任务提供完整的输入信息来计算目标函数,从而获得可靠的梯度信息来更新网络权重。此外,还设计了一种新的基于梯度路径规划的轻量级网络架构——广义高效层聚合网络(GELAN)。GELAN的架构证实了PGI在轻量级模型上取得了卓越的成果。
YOLOv9贡献总结如下:
1.我们从可逆函数的角度对现有的深度神经网络架构进行了理论分析,并通过这个过程成功地解释了许多过去难以解释的现象。在此基础上,我们还设计了PGI和辅助可逆分支,并取得了良好的效果。
2.我们设计的PGI解决了深度监控只能用于极深度神经网络架构的问题,从而使新的轻量级架构能够真正应用于日常生活。
3.我们设计的GELAN仅使用传统卷积,比基于最先进技术的深度卷积设计实现了更高的参数使用率,同时显示出轻、快、准确的巨大优势。
4.将所提出的PGI和GELAN相结合,YOLOv9在MS COCO数据集上的目标检测性能在各个方面都大大超过了现有的实时目标检测器。
这里我们一共应用开发了YOLOv9全系列六款模型,分别是:yolov9-t、yolov9-s、yolov9-m、yolov9、yolov9-c、yolov9-e,这里就不再一一给出来所有模型的模型文件了,仅以最终选定的推理后端模型yolov9-m为例。
【yolov9-m】
# YOLOv9
# parameters
nc: 11 # number of classes
depth_multiple: 1.0 # model depth multiple
width_multiple: 1.0 # layer channel multiple
#activation: nn.LeakyReLU(0.1)
#activation: nn.ReLU()
# anchors
anchors: 3
# gelan backbone
backbone:
[
[-1, 1, Silence, []],
# conv down
[-1, 1, Conv, [32, 3, 2]], # 1-P1/2
# conv down
[-1, 1, Conv, [64, 3, 2]], # 2-P2/4
# elan-1 block
[-1, 1, RepNCSPELAN4, [128, 128, 64, 1]], # 3
# avg-conv down
[-1, 1, AConv, [240]], # 4-P3/8
# elan-2 block
[-1, 1, RepNCSPELAN4, [240, 240, 120, 1]], # 5
# avg-conv down
[-1, 1, AConv, [360]], # 6-P4/16
# elan-2 block
[-1, 1, RepNCSPELAN4, [360, 360, 180, 1]], # 7
# avg-conv down
[-1, 1, AConv, [480]], # 8-P5/32
# elan-2 block
[-1, 1, RepNCSPELAN4, [480, 480, 240, 1]], # 9
]
# elan head
head:
[
# elan-spp block
[-1, 1, SPPELAN, [480, 240]], # 10
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 7], 1, Concat, [1]], # cat backbone P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [360, 360, 180, 1]], # 13
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 5], 1, Concat, [1]], # cat backbone P3
# elan-2 block
[-1, 1, RepNCSPELAN4, [240, 240, 120, 1]], # 16
# avg-conv-down merge
[-1, 1, AConv, [180]],
[[-1, 13], 1, Concat, [1]], # cat head P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [360, 360, 180, 1]], # 19 (P4/16-medium)
# avg-conv-down merge
[-1, 1, AConv, [240]],
[[-1, 10], 1, Concat, [1]], # cat head P5
# elan-2 block
[-1, 1, RepNCSPELAN4, [480, 480, 240, 1]], # 22 (P5/32-large)
# routing
[5, 1, CBLinear, [[240]]], # 23
[7, 1, CBLinear, [[240, 360]]], # 24
[9, 1, CBLinear, [[240, 360, 480]]], # 25
# conv down
[0, 1, Conv, [32, 3, 2]], # 26-P1/2
# conv down
[-1, 1, Conv, [64, 3, 2]], # 27-P2/4
# elan-1 block
[-1, 1, RepNCSPELAN4, [128, 128, 64, 1]], # 28
# avg-conv down
[-1, 1, AConv, [240]], # 29-P3/8
[[23, 24, 25, -1], 1, CBFuse, [[0, 0, 0]]], # 30
# elan-2 block
[-1, 1, RepNCSPELAN4, [240, 240, 120, 1]], # 31
# avg-conv down
[-1, 1, AConv, [360]], # 32-P4/16
[[24, 25, -1], 1, CBFuse, [[1, 1]]], # 33
# elan-2 block
[-1, 1, RepNCSPELAN4, [360, 360, 180, 1]], # 34
# avg-conv down
[-1, 1, AConv, [480]], # 35-P5/32
[[25, -1], 1, CBFuse, [[2]]], # 36
# elan-2 block
[-1, 1, RepNCSPELAN4, [480, 480, 240, 1]], # 37
# detect
[[31, 34, 37, 16, 19, 22], 1, DualDDetect, [nc]], # Detect(P3, P4, P5)
]
实验阶段我们保持了相同的参数设置,等待长时期的训练过程结束之后我们来对以上YOLOv9全系列不同参数量级的模型进行纵向的对比分析,如下:
【Precision曲线】
精确率曲线(Precision Curve)是一种用于评估二分类模型在不同阈值下的精确率性能的可视化工具。它通过绘制不同阈值下的精确率和召回率之间的关系图来帮助我们了解模型在不同阈值下的表现。
精确率(Precision)是指被正确预测为正例的样本数占所有预测为正例的样本数的比例。召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。
绘制精确率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率和召回率。
将每个阈值下的精确率和召回率绘制在同一个图表上,形成精确率曲线。
根据精确率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察精确率曲线,我们可以根据需求确定最佳的阈值,以平衡精确率和召回率。较高的精确率意味着较少的误报,而较高的召回率则表示较少的漏报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
精确率曲线通常与召回率曲线(Recall Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。
【Recall曲线】
召回率曲线(Recall Curve)是一种用于评估二分类模型在不同阈值下的召回率性能的可视化工具。它通过绘制不同阈值下的召回率和对应的精确率之间的关系图来帮助我们了解模型在不同阈值下的表现。
召回率(Recall)是指被正确预测为正例的样本数占所有实际为正例的样本数的比例。召回率也被称为灵敏度(Sensitivity)或真正例率(True Positive Rate)。
绘制召回率曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的召回率和对应的精确率。
将每个阈值下的召回率和精确率绘制在同一个图表上,形成召回率曲线。
根据召回率曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
通过观察召回率曲线,我们可以根据需求确定最佳的阈值,以平衡召回率和精确率。较高的召回率表示较少的漏报,而较高的精确率意味着较少的误报。根据具体的业务需求和成本权衡,可以在曲线上选择合适的操作点或阈值。
召回率曲线通常与精确率曲线(Precision Curve)一起使用,以提供更全面的分类器性能分析,并帮助评估和比较不同模型的性能。
【loss】
Loss曲线反映了模型在训练过程中,损失函数值随迭代次数(或训练轮数)的变化情况。损失函数是用来估量模型的预测值f(x)与真实值y的不一致程度的函数,其值越小,表明模型预测能力越强,性能越好。
【mAP0.5】
mAP0.5,也被称为mAP@0.5或AP50,指的是当Intersection over Union(IoU)阈值为0.5时的平均精度(mean Average Precision)。IoU是一个用于衡量预测边界框与真实边界框之间重叠程度的指标,其值范围在0到1之间。当IoU值为0.5时,意味着预测框与真实框至少有50%的重叠部分。
在计算mAP0.5时,首先会为每个类别计算所有图片的AP(Average Precision),然后将所有类别的AP值求平均,得到mAP0.5。AP是Precision-Recall Curve曲线下面的面积,这个面积越大,说明AP的值越大,类别的检测精度就越高。
mAP0.5主要关注模型在IoU阈值为0.5时的性能,当mAP0.5的值很高时,说明算法能够准确检测到物体的位置,并且将其与真实标注框的IoU值超过了阈值0.5。
【mAP0.5:0.95】
mAP0.5:0.95,也被称为mAP@[0.5:0.95]或AP@[0.5:0.95],表示在IoU阈值从0.5到0.95变化时,取各个阈值对应的mAP的平均值。具体来说,它会在IoU阈值从0.5开始,以0.05为步长,逐步增加到0.95,并在每个阈值下计算mAP,然后将这些mAP值求平均。
这个指标考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。当mAP0.5:0.95的值很高时,说明算法在不同阈值下的检测结果均非常准确,覆盖面广,可以适应不同的场景和应用需求。
对于一些需求比较高的场合,比如安全监控等领域,需要保证高的准确率和召回率,这时mAP0.5:0.95可能更适合作为模型的评价标准。
综上所述,mAP0.5和mAP0.5:0.95都是用于评估目标检测模型性能的重要指标,但它们的关注点有所不同。mAP0.5主要关注模型在IoU阈值为0.5时的性能,而mAP0.5:0.95则考虑了多个IoU阈值下的平均精度,从而更全面、更准确地评估模型性能。
【F1值曲线】
F1值曲线是一种用于评估二分类模型在不同阈值下的性能的可视化工具。它通过绘制不同阈值下的精确率(Precision)、召回率(Recall)和F1分数的关系图来帮助我们理解模型的整体性能。
F1分数是精确率和召回率的调和平均值,它综合考虑了两者的性能指标。F1值曲线可以帮助我们确定在不同精确率和召回率之间找到一个平衡点,以选择最佳的阈值。
绘制F1值曲线的步骤如下:
使用不同的阈值将预测概率转换为二进制类别标签。通常,当预测概率大于阈值时,样本被分类为正例,否则分类为负例。
对于每个阈值,计算相应的精确率、召回率和F1分数。
将每个阈值下的精确率、召回率和F1分数绘制在同一个图表上,形成F1值曲线。
根据F1值曲线的形状和变化趋势,可以选择适当的阈值以达到所需的性能要求。
F1值曲线通常与接收者操作特征曲线(ROC曲线)一起使用,以帮助评估和比较不同模型的性能。它们提供了更全面的分类器性能分析,可以根据具体应用场景来选择合适的模型和阈值设置。
综合全系列六款不同参数量级模型的开发实验对比结果来看:六款不同参数量级的模型效果上呈现层次分明的效果,t系列的模型效果最差,s系列模型次之,yolov9、yolov9-c和yolov9-e三款模型效果居中,m系列的模型效果最优,综合参数量来考虑,这里我们考虑使用yolov9-m来作为线上推理模型。
接下来看下yolov9-m模型的详细情况。
【离线推理实例】
【热力图实例】
【Batch实例】
【混淆矩阵】
【F1值曲线】
【Precision曲线】
【PR曲线】
【Recall曲线】
【训练可视化】
文档布局分析任务的背景意义在于将非结构化的文档转换为结构化的数据,从而实现文档的自动理解和处理。DocLayNet数据集的构建正是为了满足这一需求,提供一个大规模、多样性、高质量的数据集,推动文档布局分析技术的发展和应用。通过使用DocLayNet数据集,我们可以训练和评估文档布局分析模型,开发出更高效、更准确的文档处理系统。感兴趣的话也可以对应开发自己的文档布局分析系统。