机器学习
ziding5827
从事的领域是计算机视觉,模式识别,AR 请大家多多指教
展开
-
利用python掌握机器学习
http://python.jobbole.com/84326/这个链接地址概括的比较全面,根据这个学习路径来学习,杠杠的!转载 2017-08-21 14:51:00 · 224 阅读 · 0 评论 -
基于概率论的分类方法:朴素贝叶斯
使用朴素贝叶斯进行文档分类在文档分类中,整个文档(比如一封电子邮件)是实例,而电子邮件中的某些元素则构成特征。我们可以观察文档中出现的词,并把每个词的出现或者不出现作为一个特征,这样得到的特征数目就会跟词汇表中的词目一样多。朴素贝叶斯的一般过程:1. 收集数据2. 准备数据:需要数值型或布尔型数据3. 分析数据:有大量特征时,绘制特征作用不大,此时使用直方图效果更好4原创 2017-08-24 17:05:28 · 431 阅读 · 0 评论 -
kNN算法理论
KNN算法是机器学习里面常用的一种分类算法,假设一个样本空间被分为几类,然后给定一个待分类所有的特征数据,通过计算距离该数据的最近的K个样本来判断这个数据属于哪一类。如果距离待分类属性最近的K个类大多数都属于某一个特定的类,那么这个待分类的数据也就属于这个类。kNN的模型是整个训练数据集。当我们需要预测一个新实例时,kNN算法会搜索训练数据集到k个最相似的实例。其中这k个最相似的实例中,数目最原创 2017-08-23 14:55:03 · 952 阅读 · 0 评论 -
k-近邻算法
只是学习记录,有不好的地方,请走过路过的美女帅哥们见谅。书:K-近邻算法简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度高、空间复杂度高适用数据范围:数值型和标称型k-近邻算法(kNN)的工作原理是:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中原创 2017-08-22 15:54:41 · 242 阅读 · 0 评论 -
Logistic回归
逻辑回归在业界比较常用,用于估计某种事物的可能性。例如广告预测,根据某广告被用户点击的可能性,把最可能被用户点击的广告摆在用户能看见的地方。还有类似的某买某商品的可能性,患某种疾病的可能性等。逻辑回归比SVM温柔,SVM是一锤子买卖,买或不买!而逻辑回归会给你提供的是你这个样本属于正类的可能性,好比说你49%买。概念及其主要思想:假设现在有一些数据点,我们用一条直线对这些点进行拟合(该线称原创 2017-08-25 14:39:26 · 308 阅读 · 0 评论 -
决策树ID3
ID3算法:ID3算法是决策树的一种,它是基于奥卡姆剃刀原理的,即用尽量用较少的东西做更多的事。ID3算法,即Iterative Dichotomiser 3,迭代二叉树3代,是Ross Quinlan发明的一种决策树算法,这个算法的基础就是上面提到的奥卡姆剃刀原理,越是小型的决策树越优于大的决策树,尽管如此,也不总是生成最小的树型结构,而是一个启发式算法。在信息论中,期望信息越小,那么信原创 2017-08-23 14:42:59 · 422 阅读 · 0 评论 -
如何学习机器学习
1、在真实的工作场景中加深理解假设已经掌握多个分散的知识点,那么要考虑将其形成为一个体系。列举几个场景实例:场景1:一次性模型老板给你的数据非常小,甚至在excel中就可以打开,但是他却需要精确并且稳定的预测。场景2:嵌入式模型你和团队要对甲方软件项目进行需求收集,你了解到解决某个问题最好的方法是设计并训练一个预测模型,并把它嵌入到你们的软件产品中。这是嵌入式模型。这当中还有一原创 2017-08-28 14:45:53 · 357 阅读 · 0 评论 -
Adaboost算法
Adaboost---”Adaptive Boosting”(自适应增强)是一种弱学习到强学习的算法,强弱指的是分类器。弱学习器—在二分情况下弱分类器的错误率会低于50%。其实任意的分类器都可以作为弱分类器,比如kNN,决策树、朴素贝叶斯,Logistic回归和SVM。而在Adaboosting中最流行的弱分类器是单层决策树。强学习器—识别准确率很高并能在多项式时间内完成的学习算法。集成方法:原创 2017-08-30 10:17:54 · 543 阅读 · 0 评论 -
预测数值型数据:回归
主要有:线性回归、局部加权线性回归、岭回归和逐步线性回归。1、用线性回归找到最佳拟合直线优点:结果易于理解,计算不复杂缺点:对非线性的数据拟合不好使用数据类型:数值型和标称型数据回归的目的是预测数值型的目标值。最直接的办法是依据输入写出一个目标值的计算公式。这就是所谓的回归方程。求回归系数的过程就是回归。回归的一般方法:(1) 收集数据:任意方式(2) 准备数据:回原创 2017-08-30 10:28:39 · 919 阅读 · 0 评论