- 博客(2)
- 收藏
- 关注
原创 信息熵、联合熵、条件熵、互信息
一个随机事件xxx的自信息量1定义为:I(x)=log1p(x)I(x)=\log\frac{1}{p(x)}I(x)=logp(x)1注意,在信息论中,log\loglog函数的底通常设置为2,此时,自信息量的单位为比特(bit);在机器学习中,log\loglog函数的底通常设置为自然常数e,此时,自信息量的单位为奈特(nat)。需要从以下两方面来理解自信息量:举例说明,“中彩票”事件的概率极小,但是一旦中了彩票,“中彩票”事件的自信息量很大,也就是说,“中彩票”会获得极大的信息量(即收益)。
2018-12-18 03:24:17 17909 3
原创 anaconda安装第三方包scikit-multiflow
在conda库中没找到scikit-multiflow,在GitHub上下载压缩包,解压到C盘:第一次安装出错,出现Microsoft Visual C++ 14.0 is required 的错误c++ 14.0下载地址https://964279924.ctfile.com/fs/1445568-239446865安装软件,重启电脑,再进行上述install命令,安装成功...
2018-12-16 21:00:09 1091 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人