- 博客(4)
- 资源 (1)
- 收藏
- 关注
原创 Expectation Maximization(EM) algorithm
ML可以进行参数估计L(a) = Pr(X|a),则a = argmax L(a) = argmaxPr(X|a) 求解时,如果 X与 参数(model)关系 比较简单,比如X直接由 高斯分布, bonuli 分布等产生,这种情况下,给定 model 以及相应的观察数据,来估计 model 的参数 a 时,比较简单,直接可以计算 P(X|a) ,最大化后求出 a 值。 但是如果input和Output之间没有必然的联系,也就是说无法直接计算p(X|a)时,就需要EM算法,EM是用来计算ML的一种算法框架
2010-08-31 06:53:00 1866
转载 Bloom Filter概念和原理
<br /> <br />Bloom Filter是一种空间效率很高的随机数据结构,它利用位数组很简洁地表示一个集合,并能判断一个元素是否属于这个集合。Bloom Filter的这种高效是有一定代价的:在判断一个元素是否属于某个集合时,有可能会把不属于这个集合的元素误认为属于这个集合(false positive)。因此,Bloom Filter不适合那些“零错误”的应用场合。而在能容忍低错误率的应用场合下,Bloom Filter通过极少的错误换取了存储空间的极大节省。集合表示和元素查询<br />下面我
2010-08-26 13:09:00 569
原创 Maximum likelihood estimate
似然估计P(Sample|Model) 已知样本Sample和假定模型Model,模型中有待定参数,P(Sample|Model, α)。 最大似然估计:在给定的model下,找到α,保证P(Sample|Model)的概率最大,也就是最有可能是该Model产生的。 case1: n次独立实验,事件A发生了k次,则事件A发生的概率p是多少。 Model=柏松分布,则服从泊松分布的情况下,事件A发生k次的概率,为P(S|Model,p)= (n,k)*p^k * (1-p)^(n-k) max-l
2010-08-24 14:30:00 1662
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人