信息论
熵entropy
信息量
自互信息
x取不同值概率的倒数的log的期望
尽可能用少的bit传递频次高的字符
联合熵
条件熵
条件概率,在已知x的情况下去传输y所需要的信息量
联合熵和条件熵的关系
互信息
两者之间的共有信息
已知y的情况下对x进行编码所节省的信息量
相对熵
表示两个随机分布差异的程度
在真实P分布不知时,衡量自己构造的Q分布所使用的信息位比真实P分布多出的信息位
属性
交叉熵cross entropy
变量x,P真实,Q模型
评估模型质量的度量
熵率entropy rate
每个字/单词的信息量
混乱度
如果混乱度为k,表示在此位置有k个词都可填进来
混乱度表示交叉熵
表示在此位置有k个词都可填进来
混乱度表示交叉熵