机器学习第一周

一、概述

机器学习大致会被划分为两类:监督学习,无监督学习

1.1 监督学习

监督学习其实就是,给计算机一些输入x和正确的输出y(训练数据集),让他总结x->y的映射关系,从而给他其他的输入x,他能预测出较为准确的y。

接下来举一些监督学习的简单示例:

1.1.1 回归算法

给你训练数据集(x,y),拟合出一条直线或者曲线,能够完美的反应x和y的关系,从而给你其他的数据x,能够通过拟合线计算出y。

1.1.2 分类算法

通过某些特征,将数据进行分类。

1.2 无监督学习

给你一些数据,算法会自动帮你划分数据。(与分类算法的区别:分类算法中,已经对数据x打上标签y,对这些标签进行分类。但是无监督学习,数据没有标签,算法自动对他进行划分,即只有输入x,没有输出y)

1.2.1 聚类算法

获取没有标签的数据,并尝试自动将他们分组到集群中。

1.2.2 降维算法

二、单变量线性回归模型

给出训练集(x,y),拟合出一条直线f(x)=wx+b,能够将测试集xi带入,计算出yi。

2.1 代价函数

w,b被称为模型参数,我们需要定义代价函数,来说明w,b拟合效果的好坏。

假设m表示训练集的大小,y-hat表示计算值,y表示真实值

成本函数:J(w,b)=1/2m(i=1.....m)(y-hati-yi)^2,(用计算值-真实值的平方 的平均值来估计w,b拟合效果的好坏)这里不是除以m而是2m,是为了方便后续的计算,不再除以2也是可以的。他也被称为平方误差成本函数。

在机器学习中,会有不同定义的成本函数,平方误差成本函数是其中之一,且效果好。

我们需要根据成本函数、训练数据,来计算出可以使cost最小化的模型参数w和b。

将w,b,J画成三维图,发现是一个碗的形状。我们将碗用J的等值面切割,会得到等高线图,他表示不同的(w,b)会有相同的J。越靠近等高线图的中心,J会越小。

我们需要一个高效的算法,帮助计算最优模型参数。梯度下降法是个好方法。

2.2 梯度下降法

梯度下降法适用于求任何函数的最小值。步骤如下:

  1. 确定想要最小化的函数J(w,b)
  2. 设置w,b的初始值(一般初始化为w=0,b=0)
  3. 每次改变w,b,使J一直变小
  4. 直到J稳定或接近最小值

梯度下降法的简单理解:如图所示,当站在最高处,环绕360°,选择一个方向,可以使我迈出一小步,却能更快接近谷底,这个方向就是梯度下降最快的方向。到达下一个点后,继续环绕360°,选择一个最快接近谷底的方向。。。。如此反复,就能到达谷底。

当选择不同的初始值,使用梯度下降法可能会到达不同的谷底,这被称为局部最小值。 

2.2.1 梯度下降法的实现

执行第三步骤时:给w赋值成这里的\alpha表示学习率。学习率通常是0-1之间的小正数,他的作用是控制下坡的步幅。

同理需要更新b值。值得注意的是,更新的步骤要合理,如下图所示,左边是正确的,右边是错误的,这是因为,更新b时需要计算J对b的偏导数,此时需要用到w的原始值。

2.2.2 学习率

学习率对实现梯度下降的效率有巨大的影响。若学习率太小,到达最低点需要很多步骤,效率低;若学习率太大,梯度下降法可能会越过最低点,甚至无法收敛。

2.2.3 批量梯度下降

批量梯度下降指的是,在梯度下降的每一步中,我们都查看所有的训练示例,而不仅仅是训练数据的一个子集。

其他版本的梯度下降,在每个更新步骤查看训练数据的较小子集,而不是查看整个训练集。

三、多元线性回归

3.1 多维特征

现在有多个输入x1,x2......xn,一个输出y,怎么实现线性回归呢?

拟合函数^{f_{\vec{w}b}}(\vec{x})=w1x1+w2x2+w3x3+w4x4+b=\vec{w}\vec{x}+b

在多元线性回归(多变量线性回归)中,应该使用矢量化的方法来简化表达和加快计算速度。

3.2 用于多元线性回归的梯度下降法

如下图,左边是原始版本,右边是矢量化版本的表达方式:

如下图,左边是单元线性回归更新模型参数的公式,右边是多元线性回归的:

3.2.1 特征缩放

在面对多维特征问题的时候,我们要保证这些特征都有具有相近的尺度,这会帮助梯度下降算法更快的收敛。

对于多维特征x1,x2......xn,每个特征的值域不同,有的特别小,有的很大。放到特征散点图中,可以看到,值域大的特征宽泛,值域小的窄瘪。放到等高线图中可以看到,参数小的(特征值大,因此参数会小)等高线窄(因为参数w1对应地特征值大,w1的一点点小改动,可能会对拟合函数f产生较大影响),参数大的(特征值小,因此参数较大)等高线宽,总体呈现出一种压扁的椭圆形状。

由于等高线又高又瘦,梯度下降法会在找到最小值之前来回弹跳很长时间。 因此我们需要做特征缩放,使每个特征的值域在0-1之间。下图是特征缩放前后散点图和等高线图的变化。

如何实现特征缩放呢?

方法一:每个特征值除以值域的最大值

方法二:均值归一化,每个特征值减去均值,在除以值域的范围(最大值-最小值)

方法三:Z分数归一化,每个特征值减去均值,再除以标准差

我们只要保证每个特征的值域在一个合理的范围就可以,如果某个特征的值域偏大或者偏小,就可以对他进行特征缩放,从而保证梯度下降法可以更快的收敛。

3.2.2 如何判断梯度下降是否收敛

方法一:

绘制学习曲线,横轴表示梯度下降算法的迭代次数,纵轴表示成本函数J的大小,如下图所示:

如果梯度下降正常工作,那么成本J每次都应该减少;若J在一次迭代后增加,这意味着\alpha选择不当(通常是\alpha太大或者代码存在错误)。在迭代300次以后,成本J基本就稳定不变了,这意味着梯度下降算法收敛了。

 方法二:

自动收敛测试,设置一个很小的量\varepsilon,当J在一次迭代后减小的幅度小于\varepsilon,就将其判定为收敛。

3.2.3 如何设置学习率

如果您绘制多次迭代的成本并注意到成本有时上升有时下降,您应该将其视为梯度下降无法正常工作的明显迹象。说明可能学习率太大,或者代码中有错误。

若学习率太小,J下将会非常缓慢。所以我们应该先选一个非常小的学习率,然后逐步放大,直到不能再放大,就能找到最合适的学习率。

3.3 正规方程

梯度下降是最小化成本函数J以找到w和b的好方法,但还有另一种算法----正规方程,它仅适用于线性回归,不需要迭代梯度下降算法。正规方程法的一些缺点是:首先,与梯度下降不同,这不会泛化到其他学习方法;其次,若特征很多,计算效率低。

不需要要了解这种方法的具体实现细节,我们学会调用库函数就可以了!!!

3.4 特征工程

特征的选择对学习算法的性能具有较大的影响。

比如说估计房子的价格,目前有两个特征:房子的宽度W、长度L。我们可以设计拟合函数为f_{\vec{w}b}=w1x1+w2x2+b;

我们可以设计第三个特征:房子的占地面积S=W*L,拟合函数变成f_{\vec{w}b}=w1x1+w2x2+w3x3+b;

我们刚才所做的,创建一个新特征是所谓的特征工程的一个例子,你可以利用你对问题的知识或直觉来设计新特征(通常是通过转换或组合问题的原始特征)来使学习算法做出更准确地预测。

3.5 多项式回归

前面所学的单变量线性回归、多元线性回归,都是拟合为直线。但是假如只有一个特征x,可能呈现的不是直线的模型,这时候就需要用到多项式回归x^{2}x^{3}\sqrt{x}等。

四、逻辑回归

今天开始我们将学习监督学习的第二大类---分类算法,其中逻辑回归是经典算法之一。只有两种可能输出的分类问题-----二元分类。

介绍逻辑回归之前,先了解一个函数,sigmoid function(logistic function):

逻辑回归的数学公式:g(z)=\frac{1}{1+e^{-z}}

构建逻辑回归算法:

  1. 确定拟合函数,例如线性回归函数z=wx+b。
  2.  将拟合函数带入sigmoid 函数g(z)=\frac{1}{1+e^{-z}}

从此便构建出来逻辑回归算法^{f_{\vec{w}b}}=\frac{1}{1+e^{-(wx+b)}}。他的作用就是,输入特征集,输出0-1之间的数字。

4.1 决策边界

观察逻辑回归公式的曲线,将z输入,输出的数永远都是0-1之间的数据f。我们可以将输出f视为概率。例如f(z)=0.7 ,我们可以认为有0.7的概率预测是1。

当z=0时,f(z)=0.5,约定f\geq0.5 时,输出1,f<0.5 时输出0。因此z=0是决策边界,由于z有不同的表达式,所以z=0边界的形状有各种各样的。

4.2 代价函数

之前讲线性回归时,代价函数是平方误差成本函数,但是这种方法不适用于逻辑回归。因为将代价函数J可视化后,可以看出,在线性回归中J呈现碗状,利用梯度下降算法,可以找到最小值;但是在逻辑回归中,J呈现锯齿状,有好多个局部最小值,所以不适合做逻辑回归的代价函数。

我们需要找到一个新的代价函数,来衡量参数w、b的优劣。如下图所示:若y^{(i)}=1,成本函数为-log(f),f取值范围为0-1;因此成本函数呈现碗状,并且当预测值f越接近于1,成本函数J越小。同理y^{(i)}=0。

4.2.1 简化逻辑回归代价函数

将以上的函数简化成一个式子表达:

接下来可以推导出成本函数:

4.3 梯度下降

得到损失函数后,每次迭代更新参数w、b,每次都使J下降,直到J维持不变。

4.4 过拟合问题

使用线性回归预测房屋价格,输入特征是房子的面积,如下图所示:

肉眼可以看出,这不是一个好的模型,他不能很好地拟合训练数据,被称为模型对训练数据欠拟合(或者 算法具有高偏差)

现在我们换成多项式回归的方法:

这个模型可以很好的拟合训练数据,学习算法能够很好地泛化,这意味着即使在它以前从未见过的全新示例上也能做出良好的预测。

现在使用四阶多项式拟合训练数据:

看起来,这条拟合曲线完美的通过了所有的训练示例, 成本函数为0。但是这是一条摇摆不定的曲线,甚至在某些地方,他预测的房屋价格比面积更小的房子的价格都低,这显然不符合常理。我们将这种情况称为过度拟合(或者 算法具有高方差)

以上的问题同样会出现在分类算法中,下图中x1表示肿瘤大小,x2表示患者年龄,0表示良性肿瘤,+表示恶性肿瘤。下图从左到右分别是欠拟合、完美、过度拟合:

4.4.1 解决过拟合问题

方法一:

使用更多的训练数据集,学习算法将会适应一个波动较小的函数。

方法二:

减少特征,如果特征太多,但是没有足够多的训练数据,也可能会出现过度拟合的状况。选择最合适的一组特征来使用,也称为特征选择

方法三,正则化:

正则化相对于方法二更加温和,他没有直接删除某些特征或多项式,而是将其参数w设置成一个非常小的数,以此来减少相应特征的影响力。从而曲线能很好的拟合训练数据。正则化的作用是,它可以让你保留所有特征,它们只是防止特征产生过大的影响(这有时会导致过度拟合)。

正则化的方法,只适用于正则化参数w,对于参数b基本没有什么作用。(加入特征很多,我们一时间无法准确判断哪些特征值得保留、哪些需要正则化)正则化的典型实现方式是惩罚所有的特征,或者更准确地说,惩罚所有的W参数,并且这通常会导致拟合更平滑、更简单、也不太容易过度拟合。

4.4.2 正则化

如下图所示:成本函数的左边是为了拟合训练数据,右边是正则化系数。分析\lambda的作用:当\lambda等于0时,相当于对任何系数都没有正则化,曲线如下图蓝线所示(数据过度拟合);当\lambda等于无穷大时,w_{j}^{2}的系数无穷大,那么求成本函数J最小值时,w一定会无限趋近于0,则f=b,曲线如下图紫色线所示,趋近于一条直线(欠拟合)。

因此 \lambda应该在0-无穷大之间,选择一个合适的数,平衡第一项和第二项。

4.4.3 用于线性回归的正则化方法

正则化线性回归的梯度下降算法:

4.4.4 用于逻辑回归的正则化方法

逻辑回归的正则化表示的成本函数:

正则化逻辑回归的梯度下降算法:

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值