- 博客(4)
- 资源 (2)
- 收藏
- 关注
转载 机器学习中的算法-决策树模型组合之随机森林与GBDT
文章出处:http://www.cnblogs.com/LeftNotEasy/决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。 模型组合(比如说有Boostin
2015-07-07 21:35:53 581
转载 机器学习中的数学-模型组合(Model Combining)之Boosting与Gradient Boosting
文章出处:http://leftnoteasy.cnblogs.com。关于机器学习的博文都很不错Boosting方法: Boosting这其实思想相当的简单,大概是,对一份数据,建立M个模型(比如分类),一般这种模型比较简单,称为弱分类器(weak learner)每次分类都将上一次分错的数据权重提高一点再进行分类,这样最终得到的分类器在测试数据与训练数据上都可以得到比较好
2015-07-07 21:32:45 1100
转载 机器学习实战之决策树(1)---ID3算法与信息熵,基尼不纯度
机器学习实战之决策树(1)---ID3算法与信息熵,基尼不纯度2014-12-2阅读552 评论0(1)关于ID3算法百度文库有一篇十分详细的文章,介绍看一个例子,给出了具体的计算过程。文章链接:http://wenku.baidu.com/view/7933c2f6f61fb7360b4c65fd.html这是最后的决策树的形状,来源是百[原]机器
2015-07-07 16:10:26 2260
转载 机器学习有很多关于核函数的说法,什么是核函数?核函数的作用是什么?
转自知乎详细的公式什么的,网络上搜索kernel function, kernel methods 有很多,我就不仔细说了,简单地说说背后的intuition。intuition也很简单,比如我们有一个一维的数据分布是如下图的样子,你想把它用一个直线来分开,你发现是不可能的,因为他们是间隔的。所以不论你画在哪,比如绿色竖线,都不可能把两个类分开。但是我们使用一个简单的升
2015-07-03 15:09:43 2655 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人