自信息 i(x) = -log(p(x))时间X发生的概率越大,确定性越大信息越小, 即不确定性越小概率p是对确定性的度量 信息是对不确定性的度量两个事件X和Y独立 同时发生:p(xy)=p(x)p(y)假定X和y的信息量分别为i(x)和i(y),二者同时发生的信息量为i(x^y)=i(x)+i(y)