数据集
训练集:已知的输入和输出数据集去训练。
验证集:也是一些已知输入和输出的数据集,通过让机器学习去优化调整模型的参数。多次使用而不断调参
测试集:测试模型表现的数据集,根据误差(一般为预测输出与实际输出的不同)来判断一个模型的好坏。仅用与模型评价。
训练结果
混淆矩阵confusion_matrix
纵向(predicted)为预测的标签类别,横向(True)为真实的分类
例如该图 第三行第二列:真实的标签为人“person”但是实验预测的标签为背景“background”,即漏检
第二行第二列:真实的标签为人“person”实验预测标签也为人“person”,即检测正确
第二行第三列:真实的标签为背景“background”而实验预测标签为人“person”,即误检
labels_correlogram
待写,目前没搞懂
横纵坐标为0——1,没有单位。是归一化
labels
用于数据集的分析
第一个图:显示类别实例(目标)的个数。“head”和“person”的个数
第二个图:显示框的尺寸和数量;
第三个图:是中心点相对于整幅图的位置;
第四个图:是图中目标相对于整幅图的高宽比例;
Precision-Recall Curve精确率和召回率的关系图
精确率表示预测为正例(感兴趣的目标样本)的样本中真正为正例的比例。(即找正确的比例)
召回率表示真正为正例的样本中被预测为正例的比例。(即找全的比例)
一般情况下,当召回率较高时,精确率较低;当精确率较高时,召回率较低。而PR Curve则体现了这种“取舍”关系。当PR Curve越靠近右上角时,表示模型在预测时能够同时保证高的精确率和高的召回率,即预测结果较为准确。相反,当PR Curve越靠近左下角时,表示模型在预测时难以同时保证高的精确率和高的召回率,即预测结果较为不准确。
AP即Average Precision,称为平均准确率,是对不同召回率点上的准确率进行平均,在PR曲线图上表现为PR曲线下面的面积
。AP的值越大,则说明模型的平均准确率越高。
mAP是英文mean average precision的缩写,意思是平均精度均值。在模型检测中通常会检测多种样本,每个样本都会有一个AP值,多种样本的AP值的平均值即为mAP。
@0.5含义:IoU=0.5 深度学习中的IoU概念理解
表示“head”、“person”的精度。加粗的蓝色线表示平均精度
PRC曲线先看平滑度,再看面积(越靠右上角越好)
F1-Confidence Curve
置信度阈值是目标检测中一个重要的参数,用于控制检测器对目标的识别要求。置信度阈值的设定影响着检测结果的精度和召回率。
在目标检测中,每个检测框都有一个置信度得分,表示该框中是否包含目标。当置信度得分超过设定的阈值时,认为该框中存在目标,否则认为该框中不存在目标。置信度阈值的设定需要结合具体任务和模型的性能来进行调整,通常需要在精度和召回率之间进行权衡。
如果将置信度阈值设定得太高,可能会漏掉一些真实存在的目标,导致召回率较低;而将置信度阈值设定得太低,则会引入一些误检测,导致精度较低。因此,需要根据具体应用场景和模型的性能来选择合适的置信度阈值。
F1值是精确率和召回率的调和均值,即F1=2PR/(P+R) (P代表精确率,R代表召回率),相当于精确率和召回率的综合评价指标。
表示:当置信度为0.318时,F1 达到最大值
由F1曲线可得:当置信度为0.318时,为最大值。所以在CR、CP曲线中,当置信度为0.318时,相应的R值(召回率)、P值(精确率)即为实验的R值、P值(根据代码得知 )
YOLO等目标检测模型的非极大值抑制NMS和评价指标(Acc, Precision, Recall, AP, mAP, RoI)、YOLOv5中mAP@0.5与mAP@0.5:0.95的含义