机器学习&数据挖掘
文章平均质量分 53
evil_1_live
学生一名,上下求索中!
展开
-
机器学习的最佳入门学习资源
本文由 伯乐在线 - programmer_lin 翻译自 Jason Brownlee。欢迎加入技术翻译小组。转载请参见文章末尾处的要求。这是一篇很难写的文章,因为我希望这篇文章能对学习者有所启发。我在空白页前坐下,并且问自己了一个很难的问题:什么样的库、课程、论文和书籍对于机器学习的初学者来说是最好的。文章里到底写什么、不写什么,这个问题真的让我很烦恼。我必须把自己当做转载 2014-03-26 22:52:04 · 835 阅读 · 0 评论 -
AdaBoost 算法简介
1、算法简介: AdaBoost(Adaptive Boosting)算法是一种原理简单的有监督的机器学习算法。它的发展与一个非常有趣的理论有关,即强学习算法与弱学习算法的等价性问题,能否使用弱分类器和多个实例来构建一个强分类器。这里的“弱”是指分类器的性能比随机猜测略好,但也不会好太多;而“强”是指识别错误率很高并能在多项式时间内完成。可以分析的是,如果以上猜想成立,即二者等价,原创 2014-04-21 22:28:52 · 3014 阅读 · 0 评论 -
最大似然估计(Maximum Likelihood Estimation)
本文对于最大似然估计的算法进行了一个简要的讨论总结。原创 2014-11-15 17:23:40 · 4358 阅读 · 0 评论 -
EM(Expectation-Maximization)算法
本文对EM(Expectation-Maximization)算法进行了深入浅出的讨论。对于EM算法使用情景、为什么需要EM算法、为什么EM算法如此使用、EM算法使用的合理性等进行了详尽的讨论,相信读者会有更深入透彻的理解。原创 2014-11-05 21:50:49 · 13715 阅读 · 5 评论 -
高斯混合模型(GMM)及其参数估计
本文对于高斯混合模型(GMM)进行了简要的讨论。对于单高斯模型,高斯混合模型以及K-means等都进行了简要的介绍以及其关系的梳理,着重介绍了高斯混合模型的参数估计问题,这包括在样本分类已知情况下的MLE算法估计,以及在样本分类未知情况下的EM算法估计。原创 2014-11-22 15:08:55 · 7800 阅读 · 0 评论 -
Bregman divergence
Bregman divergenceBregman 散度(Bregman divergence or divergence distance)是一种类似于距离度量的方式,用于衡量两者之间的差异大小。定义可以认为,Bregman散度是损失或者失真函数。考虑如下情况:设点 p 是点 q 的失真或者近似的点,也就是说可能 p 是由 q 添加了一些噪声形成的,损失函数的目的是度量 p 近似 q 导致的失真或原创 2015-06-28 19:53:53 · 9365 阅读 · 2 评论