分类识别任务中,评估分类器的性能一般用到什么指标? 评估检测器性能一般用什么指标? 评估分割模块性能一般用什么指标?

分类识别任务中,评估分类器的性能一般用到什么指标? 评估检测器性能一般用什么指标? 评估分割模块性能一般用什么指标?

1.评估分类器的性能一般用到什么指标?

1.ACC [accuracy] 准确度
2.Precision 精确度
3.Recall 召回率
4.F1-score
5. AUC:AUC(Area Under Curve)ROC曲线下的面积。AUC的取值范围在0.5和1之间。使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而AUC作为数值可以直观的评价分类器的好坏,值越大越好。
6.P-R曲线:P-R曲线的P就是精确率,R就是召回率。用P作为横坐标,R作为纵坐标,就可以画出P-R曲线。

2.评估检测器性能一般用什么指标?

1.IOU:对于一个检测器,我们需要制定一定的规则来评价其好坏,从而选择需要的检测器。对于图像分类任务来讲,由于其输出是很简单的图像类别,因此很容易通过判断分类正确的图像数量来进行衡量。物体检测模型的输出是非结构化的,事先并无法得知输出物体的数量、位置、大小等,因此物体检测的评价算法就稍微复杂一些。对于具体的某个物体来讲,我们可以从预测框与真实框的贴合程度来判断检测的质量,通常使用loU (Intersection of Union)来量化贴合程度。
2.TP、TN、FP、FN:
1)True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);
2)False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;
3)False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;
4)True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
3.mAP:对于一个检测器,通常使用mAP(mean Average Precision)这一指标来评价一 个模型的好坏,这里的AP指的是一个类别的检测精度,mAP则是多个类别的平均精度。评测需要每张图片的预测值与标签值,对于某一个实 例,二者包含的内容分别如下:
预测值(Dets):物体类别、边框位置的4个预测值、该物体的得 分。
标签值(GTs):物体类别、边框位置的4个真值。
4.召回率、准确率
5.AP
6.IOU

3.评估分割模块性能一般用什么指标?

1.Dice:对于分割过程中的评价标准主要采用Dice相似系数(Dice Similariy Coefficient,DSC),Dice系数是一种集合相似度度量指标,通常用于计算两个样本的相似度,值的范围0-1,分割结果最好时值为1  ,最差时值为 0。
2.Hausdorff_95
3.IOU
4.PPV

评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Deep Learning小舟

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值