深度学习-分类问题

分类问题

在这里插入图片描述

分类结果混淆矩阵

在这里插入图片描述
真正(True Positive , TP):被模型预测为正的正样本。
假正(False Positive , FP):被模型预测为正的负样本。
假负(False Negative , FN):被模型预测为负的正样本。
真负(True Negative , TN):被模型预测为负的负样本


在这里插入图片描述



查准率(precision)
在这里插入图片描述

查全率(Recall)
在这里插入图片描述

回归问题

回归性能度量方法(regression metrics)

  • 平均绝对误差MAE(mean absolute error)
  • 均方误差MSE(mean squarederror)及均方根差RMS
  • 逻辑回归损失或称交叉熵loss(cross-entropy loss)
  • R方值,确定系数(r2_score)

(1)平均绝对误差MAE(mean absolute error)
即平均绝对值误差,它表示预测值和观测值之间绝对误差的平均值。
在这里插入图片描述
举例:真实值= [2,4,6,8],预测值= [4,6,8,10] MAE=1/4(2+2+2+2)=2.0

(2)均方误差MSE(mean_squared_error)及均方根差RMS
MSE = 在这里插入图片描述
RMS =
在这里插入图片描述
(3)逻辑回归损失 / 称交叉熵loss(cross-entropy loss)
  表征真实样本标签和预测概率之间的差值
信息量
  假设对于学习神经网络原理课程,我们有三种可能的情况发生:
在这里插入图片描述

WoW,某某同学退学了!好大的信息量!相比较来说,“完全学会了课程”事件的信息量反而小了很多

设X是一个离散型随机变量,X=x0的信息量为:
在这里插入图片描述
根据log函数曲线,我们可知,概率越大,信息量越小

X0:表示一个事件
P(X0):表示X0发生的概率
I(X0):指示性函数



  表示随机变量不确定性的度量。
在这里插入图片描述
则上面的问题的熵是:
在这里插入图片描述
相对熵(KL散度) KL散度=交叉熵−熵
在这里插入图片描述
n为事件的所有可能性。 D的值越小,表示q分布和p分布越接近。


交叉熵
在这里插入图片描述
损失函数参考链接

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值