机器学习
A_cainiao_A
这个作者很懒,什么都没留下…
展开
-
监督学习之再聊支持向量机——Andrew Ng机器学习笔记(六)
内容提要这篇博客的主要讲的是SVM对于非线性分类情况的办法和有噪声时的处理办法,最后介绍了拉格朗日对偶问题的求解算法,主要的标题有: 1. 核函数(SVM非线性分类的解决办法) 2. 松弛变量处理 outliers 方法 3. 坐标上升算法 4. 序列最小优化算法(Sequential minimal optimization, SMO)核函数(SVM非线性分类的解决办法)我们之前总是假设训原创 2016-01-02 12:53:17 · 2103 阅读 · 0 评论 -
在Ubuntu14.04_ROS_indigo上安装Kinect2驱动和bridge
在Ubuntu14.04_ROS_indigo上安装Kinect2驱动和bridge以及问题解决原创 2016-06-23 23:10:47 · 2023 阅读 · 5 评论 -
非监督学习之混合高斯模型和EM算法——Andrew Ng机器学习笔记(十)
0、内容提要这篇博文主要介绍: - 混合高斯模型(mixture of Gaussians model) - EM算法(Expectation-Maximization algorithm)1、引入假设给定一个训练集{x(1),...,x(m)}\{x^{(1)},...,x^{(m)}\},任何一个样本都没有标签,我们的任务是将这些样本分类。我们前面介绍了k-means算法是解决这个问题的一种原创 2016-02-01 22:40:28 · 5757 阅读 · 1 评论 -
非监督学习之k-means聚类算法——Andrew Ng机器学习笔记(九)
写在前面的话在聚类问题中,我们给定一个训练集,算法根据某种策略将训练集分成若干类。在监督式学习中,训练集中每一个数据都有一个标签,但是在分类问题中没有,所以类似的我们可以将聚类算法称之为非监督式学习算法。这两种算法最大的区别还在于:监督式学习有正确答案,而非监督式学习没有。比如上面这个训练集,非监督式学习有可能将它分成两类也可能是三类,到底哪种分类正确,因情况而定;有时候即便是给定了情况也不见得就能原创 2016-01-30 17:19:42 · 6796 阅读 · 0 评论 -
监督学习之生成学习算法——Andrew Ng机器学习笔记(四)
内容提要这篇博客的主要讲生成学习算法,主要包括两个算法: - 高斯判别分析(Gaussian Discriminant Analysis) - 朴素贝叶斯(Naive Bayes)now let’s begin前言今天学习的生成学习算法依然属于监督式学习算法,我们需要输入训练集,训练参数,然后进行分类。比如我们输入动物的特征xx,然后打上标签y=1y = 1表示是大象;对待另外一种输入特征,打上原创 2015-12-25 22:35:21 · 4913 阅读 · 0 评论 -
学习理论之模型选择——Andrew Ng机器学习笔记(八)
内容提要这篇博客主要的内容有: 1. 模型选择 2. 贝叶斯统计和规则化(Bayesian statistics and regularization)最为核心的就是模型的选择,虽然没有那么多复杂的公式,但是,他提供了更加宏观的指导,而且很多时候是必不可少的。now let’s begin模型选择假设我们训练不同的模型去解决一个学习问题,比如我们有一个多项式回归模型hθ(x)=g(θ0+θ1x+原创 2016-01-09 19:07:17 · 2169 阅读 · 0 评论 -
监督学习之梯度下降——Andrew Ng机器学习笔记(一)
写在前面的话一直对机器学习非常感兴趣,现在终于脚踏式的开始了。自己感觉很开心,而且也是看着Andrew Ng老师的视频自学。想用博客记录下自己学习机器学习的点滴。 Andrew Ng老师,中文名:吴恩达(1976-),华裔美国人,是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。吴恩达也是在线教育平台Coursera的联合创始人(原创 2015-12-21 14:48:05 · 9804 阅读 · 7 评论 -
监督学习之广义线性模型——Andrew Ng机器学习笔记(三)
内容提要这篇博客的主要内容有 - 牛顿法 - 指数分布族(Exponential Family) - 广义线性模型(Generalized Linear Models) - Softmax Regression牛顿法原创 2015-12-23 19:30:55 · 2028 阅读 · 0 评论 -
监督学习之Logistic regression——Andrew Ng机器学习笔记(二)
内容提要这篇博客的主要内容有: - 介绍欠拟合和过拟合的概念 - 从概率的角度解释上一篇博客中评价函数J(θ)J(\theta)为什么用最小二乘法 - 局部加权线性回归(Locally Weighted Linear Regression (LWR)) - 逻辑回归(Logistic regression) - 感知器学习算法(The perceptron learning algorit原创 2015-12-22 22:37:17 · 3451 阅读 · 1 评论 -
学习理论之经验风险最小化——Andrew Ng机器学习笔记(七)
内容提要到现在监督式学习已经基本上学完了,这篇博客主要想写的是一些关于机器学习的理论,即什么时候用什么学习算法,什么样的学习算法有什么样的特点或者优点。在拟合的时候应该怎么选取拟合模型实际上是在欠拟合和过拟合之间做着权衡,我们训练集大小为多大时合适,最终得到的拟合函数效果怎么样,它的效果如何评价等等,下面我们主要介绍的经验风险最小理论,就是来回答这些问题。经验风险最小为了说明经验风险最小,我们首先介原创 2016-01-06 23:10:33 · 6141 阅读 · 0 评论 -
监督学习之支持向量机——Andrew Ng机器学习笔记(五)
内容提要这篇博客的主要内容有: 1. 简述支持向量机(SVM)的一般记号 2. 介绍了函数间隔和几何间隔 3. 最大间隔分类器是什么 4. 为了得到最大间隔分类器解,而介绍了一些与拉格朗日有关的理论(拉格朗日乘数法,KKT条件,对偶性质) 5. 求解最大间隔分类器方法推导。其实推导出来的这个方法就是支持向量机。支持向量机(SVM),通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上原创 2015-12-31 20:47:43 · 3531 阅读 · 0 评论