Old blogs(before 2016)
Hungryof
不回答任何问题!
展开
-
AdaBoost
总说AdaBoost 是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器,即弱分类器,然后把这些弱分类器集合起来,构造一个更强的最终分类器。(很多博客里说的三个臭皮匠赛过诸葛亮)先说说啥叫强/弱分类器: 弱学习算法—识别错误率小于1/2(即准确率仅比随机猜测略高的学习算法) 强学习算法—识别准确率很高并能在多项式时间内完成的学习算法算法正宗算法(先说明一下,如果看这块有点儿费劲的话,可原创 2016-02-20 10:07:21 · 1132 阅读 · 1 评论 -
贝叶斯分类(一)-机器学习实战
总说都知道条件概率吧: p(c|x)=p(x|c)p(c)p(x)p(c|x) = \frac{p(x|c)p(c)}{p(x)} 贝叶斯分类类似: p(ci|w)=p(w|ci)p(ci)p(w)p(c_i|\mathbf{w}) = \frac{p(\mathbf{w}|c_i)p(c_i)}{p(\mathbf{w})} 记忆方法:既然是用条件概率进行分类的,因此绝对是已知某件事情(w原创 2016-02-16 13:55:37 · 2007 阅读 · 3 评论