机器学习笔记——Cross entropy(交叉熵)

本文详细介绍了信息量、熵、相对熵(KL散度)的概念,并重点讲解了交叉熵在机器学习中的作用,作为评估目标值与预测值差距的指标。通过KL散度的变形,展示了交叉熵如何体现两个分布的接近程度,并指出在优化过程中通常使用交叉熵作为损失函数。
摘要由CSDN通过智能技术生成

交叉熵,一般用来求目标值与预测值之间的差距。

1. 信息量

信息量是指多少的量度,一般认为发生概率低事件的信息量较大。

一般用log函数来描述,其中I表示信息量

$$ I(x_0) = - log(p(x_0)) $$

横轴为概率,纵轴为信息量
横轴为概率,纵轴为信息量

 2. 熵

对于某个事件,有n种可能性,每一种可能性都有一个概率\( p(x_0)\) 

而熵就是用来表示所有信息量的期望,即:

$$ H(X) = - \sum_ {i=1}^{n} p(x_i) log(p(x_i)) $$

有一种比较特殊的问题,结果只有两种可能性(比如抛硬币)

$$ H(X) = - \sum_ {i=1}^{n} p(x_i) log(p(x_i)) \\
H(X) = - p(x) log(p(x)) - (1 - p(x) log(1 - p(x)) $$

3. 相对熵(KL散度)

用来衡量两个分布的差异

比如有两个单独的概率分布 P(x) 和 Q(x)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值