![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法
文章平均质量分 92
leisurehippo
这个作者很懒,什么都没留下…
展开
-
韩信点兵问题
一个数被3除余a,被5除余b,被7除余c。求这个数 1. 求被3,5整除,被7除余1的数—15 2. 求被3,7整除,被5除余1的数—21 3. 求被5,7整除,被3除余1的数—70 4. 这个数除以3余a,取数70*a 5. 除以5余b,取数21*b 6. 除以7余c,取数15*c 7. s = 70*a + 21*b + 15*c。则s即为一个满足条件的数 5. 由于3,5,7公原创 2016-10-13 19:56:21 · 643 阅读 · 1 评论 -
FFM原理理解与应用
本文参考了美团团队的介绍文章。 http://tech.meituan.com/deep-understanding-of-ffm-principles-and-practices.html 以及 http://blog.csdn.net/zc02051126/article/details/54614230FM和FFM模型是最近几年提出的模型,凭借其在数据量比较大并且特征稀疏的情况下,...原创 2017-07-03 17:15:08 · 3295 阅读 · 0 评论 -
支持向量机(SVM)
支持向量机(SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机模型;支持向量机还包括核技巧,使它成为实质上的非线性分类器。线性可分支持向量机定义超平面为 w⋅x+b=0 w·x+b=0 , 它由法向量 ww 和截距 bb 决定,用(w,b)(w,b) 表示。通过间隔最大化求得的分离超平面为 w∗⋅x+b∗=0w^*·x + b^* = 0原创 2017-09-22 09:07:14 · 530 阅读 · 0 评论 -
提升方法(boosting)
提升方法的基本思路就是组合多个弱学习算法构成一个强的学习算法。AdaBoost算法AdaBoost算法的思路是,每次用一个弱学习算法对数据进行学习时,更加关注由上一个算法学习后被分类错误的数据。最后将各个弱学习算法按不同权值加和组成强学习算法。具体算法如下: 1. 初始化训练数据的权值D1=(w11,...,w1i,...,w1N),w1i=1N,i=1,2,...,ND1=(w11...原创 2017-10-10 10:03:12 · 589 阅读 · 2 评论