- 博客(4)
- 收藏
- 关注
原创 树回归的实现
摘要:前面已经介绍过线性回归的方法,但是这些算法局限处就是需要拟合所有的样本点,当时据拥有众多特征时候,并且特征之间的关系十分复杂的时候。构建全局模型十分困难。许多生活问题也是非线性的。常见的解决的方法是将数据集切分许多容易建模的数据。复杂的局部性建模: 通过决策树可以进行分类,决策树不断将数据集切分小,直到所有目标变量完全相同或者数据不能再切分为止。这是一种贪心的算法,在
2016-12-31 16:48:56 357
原创 线性回归(2)缩减系数理解
摘要:当我们的数据特征比样本点还多怎么办,是否能够预测呢答案是否定。那么如何解决这个问题呢?科学家们引入了岭回归这个概念,岭回归其实就是如下:与前面的算法相比。这里通过预测误差的最小化得到系数首先抽取一部分用于训练I的系数,剩下的再来训练Wdef ridgeRegres(xMat,yMat,lam=0.2): xTx = xMat.T*xMat deno
2016-12-22 00:05:22 2000
原创 基本线性回归两种方法实现
摘要: 分类是对离散性数据进行预测,而回归则是对连续性数据进行预测找出最佳拟合直线假设输入数据为X,回归系数放在向量W中,预测结果为Y = W^T *X,那么如何找到W呢 平方误差def loadDataSet(filename): numFeat = len(open(filename).readline().split('\t')) - 1 d
2016-12-08 11:41:12 756
原创 AdaBoost算法实现
摘要:机器学习处理问题,我们关注的是Boosting方法和代表分类器adaboost。我们已经实现过一些分类算法了,组合结果就是集成方法或者元算法。算法可以不同,数据集合不同部分分给不同分类器集成。训练算法:基于错误提升分类器性能 能够使用弱分类器和多个实例来构建强分类器?下面的实现是基于决策树构建的弱分类器。单层决策树是简单的决策树,仅仅基于单个特征来决策但是由于单层决策树可
2016-12-05 16:45:51 783 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人