机器学习
云杉123
研究方向NLP,爱好篮球、骑行!
展开
-
回归和分类区别,及模型的选择
转自http://my.oschina.net/zzw922cn本文主要介绍了回归问题与分类问题的不同应用场景以及它们训练算法的不同之处 1.回归问题的应用场景回归问题通常是用来预测一个值,如预测房价、未来的天气情况等等,例如一个产品的实际价格为500元,通过回归分析预测值为499元,我们认为这是一个比较好的回归分析。一个比较常见的回归算法是线性回归算法(LR)。另外,回转载 2016-09-07 11:14:56 · 5705 阅读 · 0 评论 -
关于升维和降维
今天在群里聊天到升维和降维,感触挺大的,感谢群主@Michael Pong 核函数的作用就是将低维空间映射到高维空间,选择不同的核函数可以映射到无限维 。1、升维和降维有什么区别 降维是为了降低特征的复杂度, 升维是因为在低维空间无法有效分类,当映射到高维时却是可以进行好的分类 eg: 打个比方,你在两张纸上随机的画点,如果以纸的二维平面要把两张平面上的点分开,这个是原创 2016-09-08 17:11:57 · 17379 阅读 · 1 评论 -
机器学习算法分类
算法分类:机器学习的算法繁多,其中很多算法是一类算法,而有些算法又是从其他算法中衍生出来的,因此我们可以按照不同的角度将其分类。本文主要通过学习方式和算法类似性这两个角度将机器学习算法进行分类。学习方式1、监督式学习:从给定的训练数据集中学习出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集需要包括输入和输出,也可以说是特征和目标。训练集中的目标是由人标注的。常见的监督式学习算原创 2017-03-07 13:45:10 · 660 阅读 · 0 评论 -
决策树系列算法总结——决策树
在机器习算学法中,如果留意的话会一直看到这几个算法的身影。下面对这三个算法进行一下梳理。 Decision Tree ——>Random Forest ——>DBDT基本概念:Decision Tree:决策树Random Forest:中文称随机森林GBDT:Gradient Boosting Decision Tree(梯度提升决策树)。三者关系: 提到森林,我们就会联想到是一棵棵的树构原创 2017-03-07 13:36:12 · 1009 阅读 · 0 评论 -
决策树算法系列——GBDT
参考链接: http://blog.csdn.net/dark_scope/article/details/24863289 http://blog.csdn.net/w28971023/article/details/8240756转载 2017-03-07 15:59:37 · 541 阅读 · 0 评论 -
“比赛算法”之xgboost算法系列
前言有幸参加了2016年KDD CUP的数据比赛(2016.03-2016.07),最后获得了第三阶段排名12、总排名31/341的成绩。后来听说当时获得冠军的是清华的一支队伍,用的算法就是xgboost。而后,又陆续听说该算法又获得了两个比赛的冠军,自此,xgboost算法就在我脑海中留下了深刻的印象。xgboost(eXtreme Gradient Boosting)可以说是提升方法的完全加强版原创 2017-03-07 16:13:17 · 1810 阅读 · 0 评论