机器学习(四)从信息论交叉熵的角度看softmax/逻辑回归损失

本文从信息论的交叉熵角度探讨softmax损失和逻辑回归损失的来源,解释这两种广泛使用的损失函数如何与信息量和二值事件的信息处理相关联。
摘要由CSDN通过智能技术生成

机器学习中会常见到softmaxLoss,逻辑回归损失(或者叫交叉熵损失),这两种损失的来源可以由两方面考虑,一方面可以看做是来源于概率论中的极大似然估计,此部分可参见机器学习(二),另一方面可以看做是来源于信息论中的交叉熵损失
本文主要从信息论中交叉熵的角度来解读这两种损失的由来。

softmax损失与逻辑回归损失的来源

交叉熵的定义

信息量:事件X=x0的信息量为

I(X0)=log(p(x0))

:信息量的度量/期望,对于二值事件来说,
Entropy=[p(X=x0)log(p(X=x0))+(1p(X=x0))log(1p(X=x0))]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值