EM算法原理

               

在聚类中我们经常用到EM算法(i.e. Expectation - Maximization)进行参数估计, 在该算法中我们通过函数的凹/凸性,在expectation 和maximization两步中迭代地进行参数估计,并保证可以算法收敛,达到局部最优解。

PS:为了不在11.11这个吉祥的日子发blog,还是打算今天发了,祝单身coder节日快乐,心情愉快~~


由于公式实在太多,这里我就手写了……主要讲了以下几个部分:

1. 凸集,凸函数,凹集,凹函数的概念

2. Jensen's inequality

3. EM算法两步迭代过程与收敛性证明


下面就这三部分予以介绍:







发现好东西了,我的这个看着不是很清晰,大家可以看这个人写的http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html~



关于Machine Learning更多的学习资料与相关讨论将继续更新,敬请关注本博客和新浪微博Sophia_qing






           

再分享一下我老师大神的人工智能教程吧。零基础!通俗易懂!风趣幽默!还带黄段子!希望你也加入到我们人工智能的队伍中来!https://blog.csdn.net/jiangjunshow

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值