- 博客(7)
- 资源 (1)
- 收藏
- 关注
原创 机器学习-线性回归
线性回归简介:之前的文章中介绍过一种回归算法,梯度下降算法,这里再看看另外一个回归算法,线性回归,主要的内容包括简单的线性回归和局部加权回归算法。在回归里面需要考虑的问题就是,我如何通过一堆训练数据求出回归方程?
2016-10-31 17:23:24 593
原创 AdaBoost(自适应增强算法)
AdaBoost(自适应增强算法)AdaBoost的目标是通过一个弱分类器构建一个强分类器,AdaBoost的大致运行过程:训练数据中的每一个样本,并赋予其一个权重,形成对应的权重向量DD,一开始所有训练样本具有相同权值,然后使用弱分类器分类并计算出该分类器的错误率,然后再统一数据集上面再次训练弱分类器,在第二次训练中,将会调整每个样本的权值,其中第一次分队的样本的权重将会降低,第一次分错的样本权重
2016-10-27 11:26:36 4367
原创 机器学习05-支持向量机_1
支持向量机松弛变量 惩罚参数smo算法实现我们引入分隔超平面的概念,通过确认一个分隔训练集的平面,使得所有训练集合数据尽量的远离该平面,这个平面称之为分隔超平面,对于二维数据超平面为一维的一条直线,对于三维数据超平面为二维平面,对于n维数据超平面为n-1维的面。确定超平面后对于给定数据点如果离超平面的距离越远则最终得到的预测结果越可信。
2016-10-18 15:34:32 820
原创 机器学习02-决策树ID3算法
决策树概述:通过分析每个数据特征项在分类过程中所起到的所用比重,将数据划分为几个数据子集,如果某个数据子集数据同一类型,则无需再继续划分数据分类,如果不属于同一分类,则需要在对数据子集进行分割。 优点:计算复杂度不高。 缺点:可能会出现由于样本特征值对应的样本数量不统一导致结果偏向于数量多的样本对应的分类。具体分类算法 ID3算法在每次划分数据集时我们会取一个特征属性来进行划分,那么这里有一个问
2016-10-10 19:26:15 439
原创 机器学习01-kNN邻近算法
k-近邻算法概述:k-近邻算法采用测量不同特征值之间的距离方法进行分类 优点:精度高、对于异常值不敏感,无数据输入假定 缺点:计算复杂度高,空间复杂度高,并且它没有办法各处基础数据的一些内部信息数据。 算法描述:存在一个准确的数据集合样本,称作训练样本集,样本集合中每个item都附带自己所属分类标签。当需要判断新数据的分类是,只需要计算特征数据和样本数据中最相似的分类标签,选择k个最相似的标签
2016-10-01 22:48:47 3196
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人