交叉熵CrossEntropy

本文介绍了熵的概念,作为衡量随机变量不确定性的度量。接着讲解了交叉熵的定义,它是通过将模型预测概率pi与数据标签yi结合来度量两种分布的差距。对比于MSE,交叉熵在处理sigmoid激活函数时避免了梯度消失问题,有利于优化过程。在二分类和多分类任务中,交叉熵损失函数指导模型进行学习,当预测正确时损失为0,错误时为正值。
摘要由CSDN通过智能技术生成

由之前的决策树笔记我们学习到了熵这个概念,所谓熵,就是不确定程度,是对随机变量不确定性的度量。

设X是一个取值有限的随机变量,其分布为 P ( X = x i ) = P i , i = 1 , 2 , . . . , n P(X=x_i)=P_i,i=1,2,...,n P(X=xi)=Pi,i=1,2,...,n

则X的熵的定义为 H ( X ) = − ∑ i = 1 n P i l o g ( P i ) H(X)=-\sum_{i=1}^{n}P_ilog(P_i) H(X)=i=1nPilog(P

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值