- 博客(7)
- 收藏
- 关注
转载 机器学习中的算法(2)-支持向量机(SVM)基础
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com 前言: 又有很长的一段时间没有更新博客了,距离上次更新已经有两个月的时间了。其中一个很大的原因是,不知道写什么好-_-,最近一段时间看了看关于SVM(Support Vector Machine)的文章,觉得SVM是一个非常有趣,而且自成一派的方向,所以今天准备写一篇关于关于SVM的文章
2015-05-11 15:57:34
261
转载 机器学习中的算法(1)-决策树模型组合之随机森林与GBDT
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com 前言: 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。 模型
2015-05-11 15:54:43
566
转载 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有
2015-05-11 15:54:18
574
转载 机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com 前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突然听说最近Team准备做一套分布式的分类器,可能会使用Random Forest来做,下了几篇论文看了看,简单的random forest还比较容易弄懂,复杂一点的还会与boosting等算法结合(参见i
2015-05-11 15:51:26
320
转载 机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)
本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com 前言: 第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义、学习方法等等。一宁上次给我提到,如果学习分类算法,最好从线性的入手,线性分类器最简单的就是LDA,它可以看做是简化版的SVM,如果想理解SVM这种分类器,那理
2015-05-11 15:50:25
338
转载 机器学习中的数学(2)-线性回归,偏差、方差权衡
本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。 前言: 距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得,以后会慢慢的写写这些心得。写文章是促进自己对知识认识的一个好方法,看书的时候往往不是非常细,所以有些公式、知识点什么的就一带而过,里面的一些具体意义就不容易理解了。而
2015-05-11 15:49:34
412
转载 机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com 前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的machine learning公开课,在verycd可下载,可惜没有翻译。不过还是可以看。另外一个是prml-pat
2015-05-11 15:46:26
382
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人