- 博客(2)
- 资源 (4)
- 收藏
- 关注
原创 python实现:KL距离、jensen-shannon距离
Kullback–Leibler divergence:两个概率分布之间的距离,是从信息熵的角度出发,也叫鉴别信息。计算公式: 对于所有i,都有Q(i)=0 implies P(i)=0;当p(i)=0时,p(i)*log(p(i))趋向于0二者并不等价,因为当p=q时, log(p)-log(q)=0 而log(p/q)=l
2016-10-16 16:34:21 19104 1
原创 python yield
#coding:utf-8#http://www.pythontab.com/html/2015/pythonhexinbiancheng_0415/946.html'''d=hehe()不会print,需调用d.next(),或d.send()d.next()等价于d.send(None)'''def hehe(): a=[1,2,3,4,5] for i in a:
2016-10-10 10:58:18 368
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人