【23-24 秋学期】NNDL 作业2

1、分析为什么平方损失函数不适用于分类问题,交叉熵损失函数不适用于回归问题

        对于回归问题,目标是预测一个连续的输出。但对于分类问题,分类标签通常是离散的,不是连续的,因此平方差损失函数会在分类问题中会产生不合理的结果。例如,在二分类问题中,预测结果为0.9,实际标签为1,平方损失函数会得到0.01的损失。但对于分类问题,我们更关心的是正确分类与错误分类之间的差异,而不是具体的差值。

        交叉熵损失函数量化了模型预测的概率分布与实际标签之间的差异。对于分类问题,交叉熵损失函数更适合,因为它能够有效地衡量分类错误的程度。在一个多分类问题中,交叉熵损失函数可以帮助我们更好地优化模型,使得预测的概率分布与实际标签更加接近。但对于回归问题,我们往往不需要关注类别概率的差异,而是更关注具体的数值预测,因此交叉熵损失函数在回归问题中并不适用。

2、对于一个三分类问题,数据集的真实标签和模型的预测标签如下:

真实标签112223333
预测标签122233312

     分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均。

在计算模型的精确率(Precision)、召回率(Recall)和 F1 值(F1-Score)之前,我们需要了解一些基本概念:

实际为真实际为假
预测为真(P)TP(预测为真,实际为真)FP(预测为真,实际为假)
预测为假(N)FN(预测为假,实际为真)TN(预测为假,实际为假)

根据上述概念,我们可以计算以下指标:

1. 精确率(Precision):

Precision=\frac{\mathrm{TP} }{\mathrm{TP+FP} }

即正例中被正确预测为正例的比例。

2. 召回率(Recall):

Recall=\frac{\mathrm{TP} }{\mathrm{TP+FN} }

即正确预测为正例的样本占所有实际正例样本的比例。

3. F1 值(F1-Score):

F1-Score=2*\frac{\mathrm{Precision*Recall} }{\mathrm{Precision+Recall} }

即精确率和召回率的调和平均值。

计算洪平均和微平均的步骤如下:

1. 对于每个给出的数据集,计算每个类别的精确率、召回率和 F1 值,如下表所示:

TPFPFN
类别111

1

类别2221
类别3212
总和544

2. 计算每个类别的精确率、召回率和 F1 值求和。

精确率召回率F1值
类别10.50.50.5
类别20.50.670.572
类别30.670.50.572

3.计算洪平均(将每个类别的精确率、召回率和 F1 值求和,再除以类别数和微平均(利用上文计算出的TP、FP和FN的总和计算)

精确率召回率F1值
洪平均0.5570.5570.548
微平均0.5560.5560.556
  • 4
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值