MATLAB算法实战应用案例精讲-【深度学习】评估指标

本文深入探讨了深度学习模型的评估指标,包括分类器与回归模型的评估标准,如精度、召回率、F1值、ROC曲线、AUC、Log Loss等。此外,还详细介绍了多分类情况下的评估方法,如ROC-AUC、P-R曲线和F1分数,并讲解了在实际应用中如何选择和调优模型。文章通过案例分析了如何在电力窃漏电预测中运用这些指标来比较决策树与神经网络模型的性能。
摘要由CSDN通过智能技术生成

目录

前言

算法原理

为什么要评估模型?

怎么检验和评估模型?

评估过程中如何调优?

评估指标 (Evaluation Matrics)是什么?

错误率,精度,误差的基本概念:

分类器评估指标

回归模型评估指标

多分类的情况

ROC与AUC

对数损失(Log Loss)

回归指标

平均绝对误差

均方误差

均方根误差

Huber Loss

Huber Loss 的特点

分位数损失 Quantile Loss

模型评估的方法和指标

基础

精度

精确率

召回率

P-R曲线

F1 值

平衡点(BEP)

TPR

FPR

ROC

AUC

敏感性

特异性

mAP

准确率和召回率

PR曲线

GAN评价指标

主观评价

客观评价

IS

FID

其他评价方法

应用案例

预测用户是否窃漏电 


前言

在我们的日常工作学习中,行为会产生一系列的结果,那么如何评价结果的好坏程度呢?评价指标在此就发挥了作用。模型的评价指标就是用来评价模型训练的好坏程度。

有时候“阳性”、“真”、“正类”、“1” 指的是一回事,“阴性”、“假”、“负类”、“0”指的也是一回事。例如模型对这个样本的预测结果为 1,可以认为模型对这个样本的预测结果为真、或者为正类、或者为阳性,其实说的都是一个意思。

算法原理

为什么要评估模型?

一句话,想找到最有效的模型.模型的应用是循环迭代的过程,只有通过持续调整和调优才能适应在线数据和业务目标.这跟我们买鞋子有一比,鞋子是模型,左挑右选,好吗,选了个合适的,可是这脚,它不断有变化,怎么办,持续调呗.
选用模型开始都是假设数据的分布是一定的,然而数据的分布会随着时间的移动而改变,这种现象称为分布漂移(Distribution Drift)。验证指标可以对模型在不断新生

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

林聪木

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值