机器学习
文章平均质量分 89
郭三亿
全面布局
展开
-
机器学习之——机器学习应用建议
机器学习的应用建议好久没有更新机器学习的学习笔记了,上一次还是更新的神经网络的部分。这一次我们来聊一聊,机器学习的应用建议。决定下一步做什么假设我们需要用一个线性回归模型(Linear Regression)来预测房价,当我们运用训练好了的模型来预测未知数据的时候,发现有较大的误差,我们下一步可以做什么?获得更多的训练实例——通常是有效的,但是代价较大,下面的方法也原创 2016-07-11 17:24:10 · 3144 阅读 · 1 评论 -
机器学习之——神经网络学习
很久没更新博客了,这一次我们继续之前的机器学习的课程,这一节我们讨论机器学习里面重要的一个算法——神经网络(Nerual Network)的学习部分。神经网络的代价函数首先我们要引入一些标记,以便在后面讨论中使用:我们回想一下,在逻辑回归(Logistic Regression)问题中,我们的代价函数(Cost Function)如下:在逻辑回归中,我们只有一个输出原创 2016-05-31 16:41:09 · 2017 阅读 · 0 评论 -
机器学习之——逻辑回归
在讨论逻辑回归问题(Logistic Regression)之前,我们先讨论一些实际生活中的情况:判断一封电子邮件是否是垃圾邮件?判断一次交易是否是欺诈交易?判断一份文件是否是有效文件?这类问题,我们称之为分类问题(Classication Problem)。在分类问题中,我们往往尝试去预测的结果是否属于某一个类(正确活错误)。我们从二元的分类问题开始讨论,即问题是正确或错误的。我们将因变原创 2016-04-21 18:45:22 · 5526 阅读 · 0 评论 -
机器学习之——初识神经网络
在讨论神经网络之前,我们先回顾一下之前的一系列讨论。之前我们已经讨论过,非线性假设(Non-Linear Hypothesis),使用非线性的多项式能够帮助我们建立更好的分类模型(Classification)。假设我们有非常多的特征,例如大于10000个变量,我们希望用这10000个特征来构建一个非线性的多项式模型,那么结果将是数量非常惊人的特征组合,即便我们只采用两两特征的组合(x1x2+原创 2016-05-05 17:57:24 · 1420 阅读 · 0 评论 -
机器学习之——多项式回归和正规方程
上一次我们分享了多变量线性回归模型(Linear Regression with Multiple Variables),这一次我们来讨论一下多项式回归(Polynomial Regression)和正规方程(Normal Equation)。(我们还是讨论房价预测的问题)多项式回归有时候,线性回归并不适用于所有全部的数据,我们需要曲线来适应我们的数据,比如一个二次方模型:原创 2016-04-19 11:24:58 · 6495 阅读 · 0 评论 -
机器学习之——多变量线性回归
在之前的博客中,描述过单变量线性回归(Linear Regression with One Variables)的模型,这次来分享一下多变量线性回归模型(Linear Regression with Multiple Variables)。我们还是使用之前的问题,对房价的预测。这一次增加更多的特征,例如房子的楼层数、卧室数量等,这样就构成了一个含有多个变量的模型,模型中的特征我们标记为(X原创 2016-04-18 19:02:17 · 7653 阅读 · 0 评论 -
机器学习之——神经网络模型
之前我们了解了神经网络模型(Nerual Network),这一次,我们来具体讨论一下神经网络模型的表达。我们知道,神经网络模型是许多逻辑单元(Logistics Unit)按照不同的层级组织起来的网络,每一层的输出变量作为下一层的输入变量。如下图,是一个三层的神经网络,第一层为输入层(Input Layer),最后一层为输出层(Output Layer),中间的一层为隐藏层(Hidden原创 2016-05-12 18:38:51 · 24168 阅读 · 1 评论 -
机器学习之——归一化线性回归与归一化逻辑回归
之前的博客里,跟大家分享了归一化(Regularization)的概念:保留所有的特征,但是减小参数的大小(Magnitude)。这一次捏,跟大家讨论讨论,归一化线性回归模型和归一化逻辑回归模型。首先跟大家明确一件事,为什么有些机器学习的模型需要用到归一化这个方法呢?答案有两条:归一化能够加快梯度下降的步伐,也就是获得最优解的速度归一化能够提交模型的精度具体的分析我们可以后原创 2016-04-29 16:14:53 · 13301 阅读 · 4 评论 -
机器学习之——单变量线性回归
线性回归线性回归(Linear Regression)作为Machine Learning 整个课程的切入例子确实有独到的地方,以简单的例子为出发点,将学习任务的主干串起来。原创 2016-04-14 23:00:07 · 1565 阅读 · 0 评论 -
机器学习之——归一化
之前我们讨论了几个机器学习的模型,线性回归模型(Linear Regression)和逻辑回归模型(Logistic Regression),这一次我们讨论一下关于模型数据拟合的问题以及归一化方法(Regularization)。过拟合问题(The Problem of Overfitting)如果我们有非常非常多的特征,我们通过学习得到的假设可能会非常适应训练集(代价函数的值可能几乎为0原创 2016-04-27 15:27:12 · 5943 阅读 · 1 评论 -
机器学习之——认识机器学习
前段时间,google的alphaGo让大家的眼睛都聚焦到这一“人工智能”上了。那么就当时应景吧,写一写我关于机器学习的一些笔记及认识,内容主要根据在Coursera上Andrew Ng大神的课程来做笔记。首先,什么是机器学习?参照百度百科的讲解,“机器学习是一门多领域交叉学科,设计概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习能力,以获取原创 2016-03-28 19:21:45 · 1072 阅读 · 0 评论 -
机器学习之——多类分类问题
在之前的博客中,我们讨论了逻辑回归模型(Logistic Regression)解决分类问题。但是我们发现,逻辑回归模型解决的是二分问题,即:模型的结果只有两个值,y=0 or y=1 。但是在现实情境下,我们的训练集往往包含多个类(>2),我们就无法用一个二元变量(y=0|y=1)来做判断依据了。举个例子,我们预测天气,天气的情况就分为:晴天、阴天、雨天、多云、雪天、雾天等等。下面是一个多类原创 2016-04-25 18:30:45 · 17414 阅读 · 0 评论 -
机器学习之——判定边界和逻辑回归模型的代价函数
判定边界(Decision Boundary)上一次我们讨论了一个新的模型——逻辑回归模型(Logistic Regression),在逻辑回归中,我们预测:当hø大于等于0.5时,预测y=1当hø小于0.5时,预测y=0根据上面的预测,我们绘制出一条S形函数,如下:根据函数图像,我们知道,当 z=0时,g(z)=0.5 z>0时,g(z)>0.5原创 2016-04-25 11:21:07 · 15085 阅读 · 2 评论