前言:EM和K-means算法都是机器学习最基本的算法,与混合高斯模型求解有相似之处。EM是基于概率的期望最大,K-means是到质心距离最小化。两者都要初始化参数,然后重新调整参数。
个人觉得这句话很不错:
“没有鸡和蛋的先后之争,因为他们都知道“没有你就没有我”。从此他们一起过上了幸福美好的生活。”
需要靠参数的相互迭代产生最好的结果,当然由于初始值的不一样,其得到最后优化结果也会不同。
正文:(不好意思,又要上图了)
参考资料:1.lerrylead的混合高斯模型讲解
前言:EM和K-means算法都是机器学习最基本的算法,与混合高斯模型求解有相似之处。EM是基于概率的期望最大,K-means是到质心距离最小化。两者都要初始化参数,然后重新调整参数。
个人觉得这句话很不错:
“没有鸡和蛋的先后之争,因为他们都知道“没有你就没有我”。从此他们一起过上了幸福美好的生活。”
需要靠参数的相互迭代产生最好的结果,当然由于初始值的不一样,其得到最后优化结果也会不同。
正文:(不好意思,又要上图了)
参考资料:1.lerrylead的混合高斯模型讲解