深度学习中的几个错误率和准确率

背景:
这段时间搞深度学习,经常被几个错误率和准确率的概念搞懵,今天打算总结下来:

TP(True Positive): 真实为0,预测也为0
FN(False Negative): 真实为0,预测为1
FP(False Positive): 真实为1,预测为0
TN(True Negative): 真实为1,预测也为1

1)正确率(accuracy)
正确率是我们最常见的评价指标,accuracy = (TP+TN)/(P+N),这个很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好;

2)错误率(error rate)
错误率则与正确率相反,描述被分类器错分的比例,error rate = (FP+FN)/(P+N),对某一个实例来说,分对与分错是互斥事件,所以accuracy =1 - error rate;

3)灵敏度(sensitive)
sensitive = TP/P,表示的是所有正例中被分对的比例,衡量了分类器对正例的识别能力;

4)特效度(specificity)
specificity = TN/N,表示的是所有负例中被分对的比例,衡量了分类器对负例的识别能力;

5)精度(precision)
精度是精确性的度量,表示被分为正例的示例中实际为正例的比例,precision=TP/(TP+FP);

6)召回率(recall)
召回率是覆盖面的度量,度量有多个正例被分为正例,recall=TP/(TP+FN)=TP/P=sensitive,可以看到召回率与灵敏度是一样的。

  • 0
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
深度学习模型的准确率无法收敛时,可能存在以下几个原因: 1. 学习率过高或过低:学习率是控制模型参数更新的步长。如果学习率设置过高,可能会导致参数在优化过程发散,无法收敛;如果学习率设置过低,可能会导致优化过程非常缓慢,也无法达到最优解。尝试调整学习率到一个合适的范围,例如使用学习率衰减策略或尝试不同的学习率值。 2. 数据集问题:检查数据集是否存在问题,例如标签错误、数据集分布不均衡等。确保数据集准备正确,并尝试对数据进行预处理、数据增强或重新采样等操作。 3. 模型复杂度过高:如果模型过于复杂,可能会导致过拟合,即模型在训练集上表现良好,但在测试集上表现较差。可以考虑减少模型的复杂度,例如减少网络层数、减少神经元数量或使用正则化方法来避免过拟合。 4. 训练样本数量不足:深度学习模型通常需要大量的训练样本才能达到良好的泛化性能。如果训练样本数量较少,可能导致模型无法学习到足够的模式。尽量增加训练样本数量,或者考虑使用数据增强技术来扩充数据集。 5. 训练过程问题:检查模型训练的过程是否存在问题,例如使用了错误的损失函数、错误的评估指标、错误的训练策略等。确保训练过程正确,并尝试使用其他优化算法或调整训练策略。 6. 初始化问题:模型参数的初始化可能对模型的收敛性有影响。尝试使用不同的参数初始化方法,例如 Xavier 初始化、He 初始化等。 7. 调试和分析:通过观察损失值变化的趋势,可以帮助你确定问题所在。使用可视化工具来分析模型的训练过程,例如绘制损失和准确率曲线、观察模型在训练集和验证集上的表现等。 请注意,以上是一些常见的原因和解决方法,但具体情况可能因模型和数据而异。建议逐步排查可能的问题,并根据实际情况尝试不同的调整方法来解决准确率不收敛的问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值