![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习系列
beihangzxm123
这个作者很懒,什么都没留下…
展开
-
机器学习系列(1)_逻辑回归初步
转载自:机器学习系列(1)_逻辑回归初步 - 寒小阳 - 博客频道 - CSDN.NEThttp://blog.csdn.net/han_xiaoyang/article/details/49123419作者:寒小阳 && 龙心尘时间:2015年10月。出处:http://blog.csdn.net/han_xiaoyang/article/details/转载 2016-01-05 15:51:42 · 1097 阅读 · 0 评论 -
机器学习系列(6)_从白富美相亲看特征预处理与选择(下)
作者:龙心尘 &&寒小阳 时间:2016年1月。 出处: http://blog.csdn.net/longxinchen_ml/article/details/50493845 http://blog.csdn.net/han_xiaoyang/article/details/50503115 声明:版权所有,转载请联系作者并注明出处1. 剧情一:挑螃蟹的秘密转载 2016-01-13 09:44:17 · 605 阅读 · 0 评论 -
机器学习实战笔记(Python实现)-02-k近邻算法(kNN)
k近邻算法(kNN) 本博客来源于CSDN:http://blog.csdn.net/niuwei22007/article/details/49703719 本博客源代码下载地址:CSDN免费下载、GitHub下载地址 均带有详细注释和测试数据 今天学习了《机器学习实战》这本书介绍的第一个机器学习算法—k近邻算法。书中转载 2016-03-30 11:04:37 · 1069 阅读 · 0 评论 -
机器学习实战笔记(Python实现)-01-机器学习实战
今天发布一篇图片博客,看一下效果如何,如果效果,以后的博客尽量发图片上来。转载 2016-03-30 11:03:30 · 680 阅读 · 0 评论 -
机器学习系列(7)_机器学习路线图(附资料)
转载自:机器学习系列(7)_机器学习路线图(附资料) - 寒小阳 - 博客频道 - CSDN.NEThttp://blog.csdn.net/han_xiaoyang/article/details/507594721. 引言也许你和这个叫『机器学习』的家伙一点也不熟,但是你举起iphone手机拍照的时候,早已习惯它帮你框出人脸;也自然而然点开今日头条推给你的新转载 2016-03-14 15:15:49 · 1259 阅读 · 0 评论 -
机器学习系列(8)_读《Nature》论文,看AlphaGo养成
转载自:http://blog.csdn.net/longxinchen_ml/article/details/509000701.文章声明博主是围棋小白,下棋规则都记不清楚,也没有设计过棋类AI程序。这篇文章主要是阅读《Nature》论文及关于AlphaGo的相关文章的学习心得。本文的主要目的是增进分享,交流学习,方便初学者了解AlphaGo中的算法,以及一些机器学习中的常见思路。真转载 2016-04-20 15:28:37 · 973 阅读 · 0 评论 -
机器学习系列(9)_机器学习算法一览(附Python和R代码)
转载自:http://blog.csdn.net/longxinchen_ml/article/details/51192086–谷歌的无人车和机器人得到了很多关注,但我们真正的未来却在于能够使电脑变得更聪明,更人性化的技术,机器学习。– 埃里克 施密特(谷歌首席执行官)当计算从大型计算机转移至个人电脑再转移到云的今天,我们可能正处于人类历史上最关键的时期。之所以关键,并不转载 2016-04-20 15:33:41 · 2786 阅读 · 0 评论 -
A Complete Tutorial on Tree Based Modeling from Scratch (in R & Python)
转载自:http://www.analyticsvidhya.com/blog/2016/04/complete-tutorial-tree-based-modeling-scratch-in-python/IntroductionTree based learning algorithms are considered to be one of the best and mo转载 2016-04-21 11:29:33 · 2013 阅读 · 0 评论 -
Stanford机器学习笔记-8. 支持向量机(SVMs)概述
8. Support Vector Machines(SVMs)Content 8. Support Vector Machines(SVMs) 8.1 Optimization Objection 8.2 Large margin intuition 8.3 Mathematics Behind Large Margin Classif转载 2016-04-22 16:45:59 · 1568 阅读 · 0 评论 -
Stanford机器学习笔记-7. Machine Learning System Design
7 Machine Learning System DesignContent 7 Machine Learning System Design 7.1 Prioritizing What to Work On 7.2 Error Analysis 7.3 Error Metrics for Skewed Classed 7.3.1 P转载 2016-04-22 16:45:10 · 921 阅读 · 0 评论 -
Stanford机器学习笔记-6. 学习模型的评估和选择
6. 学习模型的评估与选择Content 6. 学习模型的评估与选择 6.1 如何调试学习算法 6.2 评估假设函数(Evaluating a hypothesis) 6.3 模型选择与训练/验证/测试集(Model selection and training/validation/test sets) 6.4 偏差与方差 6转载 2016-04-22 16:44:10 · 2636 阅读 · 0 评论 -
Stanford机器学习笔记-5.神经网络Neural Networks (part two)
5 Neural Networks (part two)content: 5 Neural Networks (part two) 5.1 cost function 5.2 Back Propagation 5.3 神经网络总结 接上一篇4. Neural Networks (part one).本文将先定义神经网络的代价函数,然后介绍逆向传播转载 2016-04-22 16:42:52 · 1104 阅读 · 0 评论 -
Stanford机器学习笔记-4. 神经网络Neural Networks (part one)
4. Neural Networks (part one)Content: 4. Neural Networks (part one) 4.1 Non-linear Classification. 4.2 Neural Model(神经元模型) 4.3 Forward Propagation 4.4 神经网络实现与或非门以及异或门转载 2016-04-22 16:41:43 · 2022 阅读 · 0 评论 -
Stanford机器学习笔记-3.Bayesian statistics and Regularization
3. Bayesian statistics and RegularizationContent 3. Bayesian statistics and Regularization. 3.1 Underfitting and overfitting. 3.2 Bayesian statistics and regularization. 3.3 Opt转载 2016-04-22 16:40:35 · 1717 阅读 · 0 评论 -
Stanford机器学习笔记-2.Logistic Regression
Content:2 Logistic Regression. 2.1 Classification. 2.2 Hypothesis representation. 2.2.1 Interpreting hypothesis output. 2.3 Decision boundary. 2.3.1 Non-linear decision bound转载 2016-04-22 16:39:49 · 857 阅读 · 0 评论 -
机器学习实战:模型评估和优化
原文:Real-World Machine Learning: Model Evaluation and Optimization 作者:Henrik Brink, Joseph W. Richards, Mark Fetherolf 监督学习的主要任务就是用模型实现精准的预测。我们希望自己的机器学习模型在新数据(未被标注过的)上取得尽可能高的准确率。换句话说,也就翻译 2016-02-06 10:27:53 · 41309 阅读 · 0 评论 -
神经网络之激活函数面面观
转载自:【机器学习】神经网络之激活函数面面观 - 仙道菜 - 博客频道 - CSDN.NEThttp://blog.csdn.net/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都转载 2016-01-27 16:12:07 · 3262 阅读 · 0 评论 -
机器学习系列(5)_从白富美相亲名单看特征选择与预处理(上)
作者:龙心尘 &&寒小阳 时间:2016年1月。 出处: http://blog.csdn.net/longxinchen_ml/article/details/50471682声明:版权所有,转载请联系作者并注明出处1. 引言再过一个月就是春节,相信有很多码农就要准备欢天喜地地回家过(xiang)年(qin)了。我们今天也打算讲一个相亲的故事。讲机器学转载 2016-01-09 09:10:59 · 901 阅读 · 0 评论 -
机器学习系列(2)_从初等数学视角解读逻辑回归
作者:龙心尘 && 寒小阳 时间:2015年10月。 出处:http://blog.csdn.net/longxinchen_ml/article/details/49284391, http://blog.csdn.net/han_xiaoyang/article/details/49332321。 声明:版权所有,转载请注明出处,谢谢。一、 引言前一篇文章《机器转载 2016-01-05 15:52:35 · 652 阅读 · 0 评论 -
机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾
作者: 寒小阳 &&龙心尘 时间:2015年11月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/49797143 声明:版权所有,转载请注明出处,谢谢。1.引言先说一句,年末双十一什么的一来,真是非(mang)常(cheng)欢(gou)乐(le)!然后push自己抽出时间来写这篇blog的原因也非常简单:转载 2016-01-05 15:54:41 · 2561 阅读 · 1 评论 -
十张图解释机器学习的基本概念
转载自:十张图解释机器学习的基本概念 - 博客 - 伯乐在线http://blog.jobbole.com/63748/在解释机器学习的基本概念的时候,我发现自己总是回到有限的几幅图中。以下是我认为最有启发性的条目列表。1. Test and training error: 为什么低训练误差并不总是一件好的事情呢:ESL 图2.11.以模型复杂度为变量的测试转载 2016-01-05 16:35:46 · 490 阅读 · 0 评论 -
机器学习系列(4)_机器学习算法一览,应用建议与解决思路
作者:寒小阳 时间:2016年1月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/50469334 声明:版权所有,转载请联系作者并注明出处1.引言提起笔来写这篇博客,突然有点愧疚和尴尬。愧疚的是,工作杂事多,加之懒癌严重,导致这个系列一直没有更新,向关注该系列的同学们道个歉。尴尬的是,按理说,机器学习介绍与转载 2016-01-07 09:36:56 · 1299 阅读 · 0 评论 -
统计学习笔记(1)——统计学习方法概论
1.统计学习 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称统计机器学习。统计学习是数据驱动的学科。统计学习是一门概率论、统计学、信息论、计算理论、最优化理论及计算机科学等多个领域的交叉学科。 统计学习的对象是数据,它从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,又回到对数据的分析与预转载 2016-01-08 10:20:28 · 810 阅读 · 0 评论 -
统计学习笔记(2)——感知机模型
感知机学习旨在求出将训练数据集进行线性划分的分类超平面,为此,导入了基于误分类的损失函数,然后利用梯度下降法对损失函数进行极小化,从而求出感知机模型。感知机模型是神经网络和支持向量机的基础。下面分别从感知机学习的模型、策略和算法三个方面来介绍。1. 感知机模型 感知机模型如下:f(x)= sign(w*x+b) 其中,x为输入向量,sign为符号函数转载 2016-01-08 10:21:24 · 638 阅读 · 0 评论 -
统计学习笔记(3)——k近邻法与kd树
在使用k近邻法进行分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。由于k近邻模型的特征空间一般是n维实数向量,所以距离的计算通常采用的是欧式距离。关键的是k值的选取,如果k值太小就意味着整体模型变得复杂,容易发生过拟合,即如果邻近的实例点恰巧是噪声,预测就会出错,极端的情况是k=1,称为最近邻算法,对于待预测点x,与x最近的点决定了x的类别。k值得增大意味着整体的转载 2016-01-08 10:22:44 · 559 阅读 · 0 评论 -
统计学习笔记(4)——朴素贝叶斯法
朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。简单来说,朴素贝叶斯分类器假设样本每个特征与其他特征都不相关。举个例子,如果一种水果具有红,圆,直径大概4英寸等特征,该水果可以被判定为是苹果。尽管这些特征相互依赖或者有些特征由其他特征决定,然而朴素贝叶斯分类器认为这些属性在判定该水果是否为苹果的概率分布上独立的。尽管是带着这些朴素思想和过于简单化的假设,但朴素贝叶斯分类器在很多复杂的现实转载 2016-01-08 10:23:42 · 699 阅读 · 0 评论 -
SVM学习(一):SVM概念
SVM算法学习之旅,首先介绍一下SVM概念。 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。 支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在转载 2016-01-08 11:45:03 · 1148 阅读 · 0 评论 -
SVM学习(二):线性分类器
1.线性分类器概念 线性分类器(一定意义上,也可以叫做感知机) 是最简单也很有效的分类器形式.在一个线性分类器中,可以看到SVM形成的思路,并接触很多SVM的核心概念。用一个二维空间里仅有两类样本的分类问题来举个小例子。如图所示: C1和C2是要区分的两个类别,在二维平面中它们的样本如上图所示。中间的直线就是一个分类函数,它可以将两类转载 2016-01-08 11:45:42 · 4439 阅读 · 0 评论 -
SVM学习(三):线性分类器的求解
1.问题的描述 上节说到我们有了一个线性分类函数,也有了判断解优劣的标准——即有了优化的目标,这个目标就是最大化几何间隔,但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样的说法,这是怎么回事呢?回头再看看我们对间隔和几何间隔的定义:间隔:δ=y(wx+b)=|g(x)|几何间隔:可以看出δ=||w||δ几何。注意到几转载 2016-01-08 11:46:49 · 1007 阅读 · 0 评论 -
SVM学习(四):为何需要核函数
生存?还是毁灭?——哈姆雷特 可分?还是不可分?——支持向量机 之前一直在讨论的线性分类器,只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?是否有某种方法,让线性不可分的数据变得线性可分呢?转载 2016-01-08 11:47:33 · 4329 阅读 · 0 评论 -
SVM学习(五):松弛变量与惩罚因子
1.松弛变量 现在我们已经把一个本来线性不可分的文本分类问题,通过映射到高维空间而变成了线性可分的。就像下图这样: 圆形和方形的点各有成千上万个(毕竟,这就是我们训练集中文档的数量嘛,当然很大了)。现在想象我们有另一个训练集,只比原先这个训练集多了一篇文章,映射到高维空间以后(当然,也使用了相同的核函数),也就多了一个样本点,但是这个样本的位置是转载 2016-01-08 11:48:15 · 2581 阅读 · 1 评论 -
SVM学习(六):将SVM用于多类分类
从 SVM的那几张图可以看出来,SVM是一种典型的两类分类器,即它只回答属于正类还是负类的问题。而现实中要解决的问题,往往是多类的问题(少部分例外,例如垃圾邮件过滤,就只需要确定“是”还是“不是”垃圾邮件),比如文本分类,比如数字识别。如何由两类分类器得到多类分类器,就是一个值得研究的问题。 还以文本分类为例,现成的方法有很多,其中一种一劳永逸的方法,就是真的一次性考虑所有样本转载 2016-01-08 11:48:58 · 36881 阅读 · 0 评论 -
Stanford机器学习笔记-1.线性回归
转载自:http://www.cnblogs.com/llhthinker/tag/Machine%20Learning/Content:1. Linear Regression 1.1 Linear Regression with one variable 1.1.1 Gradient descent algorithm 1.2 Linear Regression转载 2016-04-22 16:38:00 · 933 阅读 · 0 评论