1.分析为什么平方损失函数不适用于分类问题
最小化平方损失函数本质上等同于在误差服从高斯分布的假设下的极大似然估计,然而大部分分类问题的误差并不服从高斯分布。而且在实际应用中,交叉熵在和Softmax激活函数的配合下,能够使得损失值越大导数越大,损失值越小导数越小,这就能加快学习速率。然而若使用平方损失函数,则损失越大导数反而越小,学习速率很慢。
2.对于一个三分类问题,数据集的真实标签和模型的预测标签如下:
真实标签 1 1 2 2 2 3 3 3 3
预测标签 1 2 2 2 3 3 3 1 2
分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均。
类别1的精确率:1/1+1=,类别2的精确率:1+1/1+1+1+1=,类别3的精确率:1+1/1+1+1=
平均精确率:
类别1的召回率:1/1+1=,类别2的召回率:1+1/1+1+1=,类别3的召回率:1+1/1+1+1+1=
平均召回率:
宏平均F1值:
微平均: