机器学习
imssshan
少年~好好写代码~
展开
-
从机器学习谈起(转载)
转载自http://www.cnblogs.com/subconscious/p/4107357.html 从机器学习谈起 在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机器学习,并且上手相关的实践。这篇文档也算是EasyPR开发的番外篇,从这里开始,必须对机器学习了解才能进一步介绍EasyPR的内核。当然,本文也面对一般读者,不会对阅读有相关的前提转载 2016-10-24 16:20:49 · 494 阅读 · 0 评论 -
【cs229-Lecture5】生成学习算法:1)高斯判别分析(GDA);2)朴素贝叶斯(NB)
参考: cs229讲义 机器学习(一):生成学习算法Generative Learning algorithms:http://www.cnblogs.com/zjgtan/archive/2013/06/08/3127490.html首先,简单比较一下前几节课讲的判别学习算法(Discriminative Learning Algorithm)和本节课讲的生成学习算法(Generative转载 2016-12-11 11:32:03 · 695 阅读 · 0 评论 -
[Machine Learning] 梯度下降法的三种形式BGD、SGD以及MBGD
阅读目录 1. 批量梯度下降法BGD 2. 随机梯度下降法SGD 3. 小批量梯度下降法MBGD 4. 总结 在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。 下面我们以线性回归算法来对三种梯度下降法进行比较。 一般线性回归函数的假设函数为:转载 2016-12-10 11:06:06 · 443 阅读 · 0 评论 -
Adaboost算法及分析
提升的思想: 对于分类问题,给定一个训练样本集,求比较粗糙的分类规则(弱分类器)要比求精确的分类规则(强分类器)容易的多。提升方法就是从弱学习算法出发,反复学习,得到一系列弱分类器(又称为基本分类器),然后组合这些弱分类器,构成一个强大分类器。大多数的提升方法都是改变训练数据的概率分布(训练数据的权值分布),针对不同的训练数据分布调用弱学习算法学习一系列弱分类器。 那么就存在两个原创 2017-01-03 20:34:09 · 2090 阅读 · 0 评论 -
感知机-BP神经网络
感知机(perceptron)数据集的线性可分: 对数据集 若存在某个超平面 w·x+b=0,能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有y=+1的实例,w·x+b>0,对所有y=-1的实例,w·x+b<0,则认为数据集T线性可分。感知器(perceptron)1957年由Rosenblatt提出,是神经网络与支持向量机的基础。感知器是二类分类的线性分类模型,其输入为实原创 2017-01-04 00:41:06 · 2180 阅读 · 0 评论