习题 2-1 分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.
损失函数的定义
损失函数是一个非负实数,用来量化模型预测和真实标签之间的差异。我们一般会用损失函数来进行参数的优化,当构建了不连续离散导数为0的函数时,这对模型不能很好地评估。
平方损失函数
平方损失函数经常用在预测标签y ,y为实数值的任务中,定义为:
分类问题中的标签,是没有连续的概念的。每个标签之间的距离也是没有实际意义的,所以预测值和标签两个向量之间的平方差这个值不能反应分类这个问题的优化程度。所以分类问题我们一般采取交叉熵损失函数(Cross-Entropy Loss Function)来进行评估。
交叉熵损失函数
交叉熵损失函数定义为:
交叉熵损失函数只和分类正确的预测结果有关。而平方损失函数还和错误的分类有关,该损失函数除了让正确分类尽量变大,还会让错误分类都变得更加平均,但实际中后面的这个调整使没必要的。但是对于回归问题这样的考虑就显得重要了,因而回归问题上使用交叉熵损失函数并不适合。
习题 2-12 对于一个三分类问题 , 数据集的真实标签和模型的预测标签如下 :
真实标签 | 1 | 1 | 2 | 2 | 2 | 3 | 3 | 3 | 3 |
预测标签 | 1 | 2 | 2 | 2 | 3 | 3 | 3 | 1 | 2 |
分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均.
混淆矩阵:
预测成正例 | 预测成反例 | 加和含义 | 统计量 | |
正例 | TP | FN | TP + FN 表示实际数据集中正样本的数量 | 召回率 TPR=TP/(TP+FN) |
反例 | FP | TN | FP + TN 表示实际数据集中负样本的数量 | FPR = FP/(FP+TN) |
加和含义 | TP + FP 表示预测的正类样本数 | FN + TN 表示预测的负类样本数 | TP + FN + FP + TN 表示样本总数 | |
统计量 | 精确率= TP/(TP+FP) | 正确率= (TP+TN)/(TP+TN+FP+FN) |
设精确率为P,召回率为R,F1值为F1.
以类别1为正例,其他为负例,可得:
以类别2为正例,其他为负例,可得:
以类别3为正例,其他为负例,可得:
宏平均:
微平均:
总结:
本文主要学习了为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题以及精确率、召回率、F1值以及它们的宏平均和微平均的计算。巩固了之前学习的内容,并且学习到了如何使用在CSDN中插入公式。