- 博客(3)
- 收藏
- 关注
转载 test
机器学习里面,经常会看到各种熵,特意在此简单总结下。 前言 信息熵是由香农1948年提出的用来定量描述信息量大小的概念。在机器学习中用来表示随机变量分布的混乱程度,分布越混乱,熵越大。 1.自信息 自信息表示某单一事件发生时所包含的信息量多少,大小和事件发生的概率有关,概率越大,自信息越小,计算公式如下: I(pi)=−log(pi)I(pi)=−log(pi) pipi表示事件发...
2018-09-07 11:16:37 230
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人