8.softmax回归

1. 关于回归和多类分类

在这里插入图片描述

分类问题从回归的单输出变成了多输出,这个多输出的个数=类别的个数
置信度:置信度一词来自统计学,而统计学的本质是,用抽样的数据去估计整体的真实分布。例如,样本均值估计整体均值;还有,频率近似概率。而置信度的含义就是,你在用样本估计整体的时候,所得到的结论的“可信程度”,或者说,是对自己所的结论的一个量化的概率评价(打分)

2.从回归到多分类–均方损失

在这里插入图片描述

  1. 假设有n个类别,那么可以用最简单的一位有效编码来进行编码,标号就是一个长为n的向量。这个向量中,只有一个元素为1,对应的下标是第i个类别,其余元素为0。
  2. 如果训练出了一个模型,在做预测的时候,选取i使得最大化Oi的置信度的值作为预测,这个i就是预测的标号

3. 从回归到多类分类–无校验比例

在这里插入图片描述
正确类y的置信度oy要远远大于其他非正确类的oi,写成数学就是希望oy-oi要大于某一个阈值(oi是预测其他类的概率,oy是预测正确类的概率)

4. 从回归到多类分类–校验比例

在这里插入图片描述
希望使得输出是一个概率,现在的输出是o1~on的向量,将softmax作用到o上看,得到一个长为n的向量y_hat,每个元素非负,且相加为1.

5. softmax 和 交叉熵损失

在这里插入图片描述
解释: 假设标签y将是一个三维向量, 其中(1,0,0)对应于“猫”、(0,1,0)对应于“鸡”、(0,0,1)对应于“狗”:

在这里插入图片描述
现在去预测一个样本,假设这个样本是鸡,也就是真实的概率是y=[0,1,0],而我们经过softmax预测之后得到的预测概率是y_hat= [0.1,0.8,0.1],那么:

损失函数l(y,y_hat) = -0* 0.1 - 1* 0.8 - 0* 0.1 = -1 * 0.8 , 得到的就是对于真实类别y预测得到的概率y_hat。因为真实样本向量中只有一个为1,其余为0,那么上图中的计算结果中的右下角的y就是表示,这个样本的真实类别y。

对于真实类别的预测值求log,再求负数,所以可以看出,对分类问题来讲,不关心对对于非正确类的预测值,我们只关心对于正确类的预测值,它的置信度要够大

下面对于如何得到梯度的过程进行展开:

在这里插入图片描述
在这里插入图片描述
最后,根据计算结果可以发现,梯度就等于预测概率和真实概率的差值。

6. 总结

  • softmax回归是一个多类分类问题
  • 使用softmax操作值得到每个类的预测置信度(概率,非负,和相加为1)
  • 使用交叉熵来衡量预测和标号的区别(用交叉熵做损失函数)
  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值