机器学习算法
一个追逐自我的程序员
曾经梦想成为一个优秀的游戏策划,中道转而人工智能
展开
-
Logistic回归算法
前言关于Logistic的重要性,不言而喻,网上也有许多关于Logistic的资料,这篇文章我就写写我自己在看了机器学习实战后,对于Logistic的理解吧。首先我们要知道Logistic能干什么?作为我们学习的第一个回归算法,它根据现有的数据对分类边界建立回归公式,以此进行分类。我们的目的就是找到那根最佳拟合直线。也就是我们能把数据分成两类,那么我们可以把这应用在一些数值的分类问题上,比如怎么判断原创 2017-10-27 11:22:08 · 2400 阅读 · 0 评论 -
决策树----ID3
由于这周国庆假期,所以学习就停了一段时间,毕竟放松放松也是挺好的,决策树是放假前看了一点,还没看完,所以先记记所看的内容。 还是继续机器学习实战的学习,相比较k-近邻算法而言,决策树能解决一些非数值的特征值分类问题,当然也能解决数值的特征值分类,这里我们所用的算法是ID3,ID3算法无法直接处理数值型数据,后面将学习CART(分类回归树)算法,则可以解决这个问题。那我们就提出问题了,一些数据的“原创 2017-10-08 21:21:16 · 467 阅读 · 0 评论 -
基于概率论的分类方法:朴素贝叶斯
算法描述进过几周的学习,我目前基本上完成了一周一个机器学习的算法任务,后面还要继续坚持下去。学习这些算法时,其中会遇到一些问题,但通过动手实践实践仿佛又理解的更深刻了一些。希望学习好算法之后,能做一些项目,这大概就是我学习算法的目的了吧。 好了,废话不讲,这次算法名字朴素贝叶斯,作为贝叶斯决策理论的一部分,所以有必要知道贝叶斯决策是啥?《机器学习实战》中讲就是用数据的统计参数描述两类数据,用p1(原创 2017-10-15 14:56:42 · 604 阅读 · 0 评论 -
k-近邻算法
这篇文章算是机器学习算法文章的开头篇,k-近邻算法个人觉得比较有效而且简单,这一系列的学习我感觉将会很有趣,因为这些算法能直接被用来解决一些实际的问题,把一些枯燥的数学算法用来解决问题,我也认为这是最好的学习方法。本系列文章结合机器学习实战学习做的一些学习笔记。 k-近邻算法简单说就是采用测量不同特征值之间的距离方法进行分类,这是机器学习实战所写的,我觉得不够完整,首先特征值必须是数值类型,否则欧原创 2017-10-01 13:53:16 · 587 阅读 · 0 评论 -
支持向量机-SVM
前言这个周末没去练车,感觉现在继续练下去也提高不大了,只会浪费时间,但是教练就是不让约考,只能继续等下去了。继续回来研究我的算法,害怕太久不学习,脑子会变得一片空白。 支持向量机算是目前我见过机器学习算法最难理解之一了吧(虽然没见过多少算法0.0),看了挺久的,到现在也是半懂不懂,特别是数学公式的推导,我就不花费过多时间在上面了,毕竟我们还是注重应用为主。 先给出一些博客,我也是边看这些博客,慢原创 2017-11-12 12:32:36 · 312 阅读 · 1 评论 -
AdaBoost算法分类
前言在我们学习AdaBoost算法之前我们可以先来了解一下起源,增加一下学习兴趣。 boost 算法系列的起源来自于PAC Learnability(PAC 可学习性)。这套理论主要研究的是什么时候一个问题是可被学习的,当然也会探讨针对可学习的问题的具体的学习算法。这套理论是由Valiant提出来的,也因此(还有其他贡献哈)他获得了2010年的图灵奖。同时 ,Valiant和 Kearns首原创 2017-11-26 21:38:16 · 705 阅读 · 0 评论 -
朴素贝叶斯分类--R语言应用
前面我们曾经讲解过朴素贝叶斯算法原理,以及python的代码实现。原理可以参考这里。这里我们就用R包来应用朴素贝叶斯来解决手机垃圾短信过滤,其实与垃圾邮件分类的原理差不多,这里我们就熟悉熟悉怎么在R里面运用朴素贝叶斯。数据集准备数据数据导入data <- read.xlsx("C:\\Users\\user\\Desktop\\sms_spam.xlsx",sheetIndex = 1) 可原创 2017-12-17 22:02:23 · 2176 阅读 · 0 评论 -
TF-IDF算法自动提取关键词
前言关键词提取可以是说是NLP中比较常见研究方向,这个涉及到数据挖掘、文本处理、信息检索等很多计算机前沿领域。但今天我们就了解一个简单的算法来提取关键词。 那么我们该如何实现计算机自动提取关键词呢? 让我们从一个实例开始讲起。假定现在有一篇长文《中国的蜜蜂养殖》,我们准备用计算机提取它的关键词。 一个容易想到的思路,就是找到出现次数最多的词。如果某个词很重要,它应该在这篇文章中多次出现。...转载 2018-03-27 18:59:21 · 1224 阅读 · 0 评论