习题 2-1 分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.
平方损失函数经常用在预测标签y为实数值的任务中,定义为:
分类问题的概念为:在二分类问题中y={+1,-1},在C分类问题在y={1,2,3,···,C},可以看出分类问题的结果为离散值。
分类问题的标签是没有连续的概念的,每个标签之间的距离也没有实际意义,所有预测值和标签两个向量之间的平方差不能反映分类问题的优化程度。
交叉熵只对正确分类的结果看重。例如:在一个三分类模型中,模型的输出结果为(a,b,c),而真实的输出结果为(1,0,0),交叉熵对应的损失函数如下:
c=(-1)*log(a)-0*log(b)+0*log(c)=-log(a)
可以快速交叉熵的损失函数只和分类正确的预测结果有关系,而对于回归问题来说不仅要让正确的分类尽量变大,还得让错误分类变得平均。所以,回归问题熵使用交叉上并不合适。
习题 2-12 对于一个三分类问题 , 数据集的真实标签和模型的预测标签如下 :
分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均.
精确率:
P1= =
P2= =
P3= =
召回率:
R1==
R2==
R3==
F1值:
=
=
宏平均:
宏查准率:
宏查全率:
宏F1:
微平均:
微查准率:
微查全率:
=
微F1:
总结:掌握了平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题的原因,
学会了计算模型的精确率、召回率、F1值以及它们的宏平均和微平均的公式及技巧。