信息量, 信息熵, 交叉熵, KL散度
信息量, 信息熵, 交叉熵, KL散度信息量信息量字面意思理解就是一个事件包含信息的多少. 如果一个事件x发生的概率 ( p(x) ) 越高, 那其实它包含的信息量越少, 反而一个发生概率很小的事件包含的信息量越高. 也就是说信息量与发生的概率成反比. 此外, 考虑到在计算机存储时是按照bit来存储, 所以还会取对数 (我对为什么取对数这一块理解也不是很深刻…), 总结起来就是: I(x)=log1
原创
2017-09-12 16:15:55 ·
819 阅读 ·
0 评论