梯度下降方法具体描述

1. 梯度

在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x, ∂f/∂y)T,简称grad f(x,y)或者▽f(x,y)。对于在点(x0,y0)的具体梯度向量就是(∂f/∂x0, ∂f/∂y0)T.或者▽f(x0,y0),如果是3个参数的向量梯度,就是(∂f/∂x, ∂f/∂y,∂f/∂z)T,以此类推。

    那么这个梯度向量求出来有什么意义呢?他的意义从几何意义上讲,就是函数变化增加最快的地方。具体来说,对于函数f(x,y),在点(x0,y0),沿着梯度向量的方向就是(∂f/∂x0, ∂f/∂y0)T的方向是f(x,y)增加最快的地方。或者说,沿着梯度向量的方向,更加容易找到函数的最大值。反过来说,沿着梯度向量相反的方向,也就是 -(∂f/∂x0, ∂f/∂y0)T(梯度负方向)的方向,梯度减少最快,也就是更加容易找到函数的最小值。

2. 梯度下降与梯度上升

    在机器学习算法中,在最小化损失函数时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数,和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法来迭代了。

    梯度下降法和梯度上升法是可以互相转化的。比如我们需要求解损失函数f(θ)的最小值,这时我们需要用梯度下降法来迭代求解。但是实际上,我们可以反过来求解损失函数 -f(θ)的最大值,这时梯度上升法就派上用场了。

    下面来详细总结下梯度下降法。   

3. 梯度下降法算法详解

3.1 梯度下降的直观解释

    首先来看看梯度下降的一个直观的解释。比如我们在一座大山上的某处位置,由于我们不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这样一步步的走下去,一直走到觉得我们已经到了山脚。当然这样走下去,有可能我们不能走到山脚,而是到了某一个局部的山峰低处。

    从上面的解释可以看出,梯度下降不一定能够找到全局的最优解,有可能是一个局部最优解。当然,如果损失函数是凸函数,梯度下降法得到的解就一定是全局最优解。

3.2 梯度下降的相关概念

    在详细了解梯度下降的算法之前,我们先看看相关的一些概念。

    1. 步长(Learning rate):步长决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。用上面下山的例子,步长就是在当前这一步所在位置沿着最陡峭最易下山的位置走的那一步的长度。

    2.特征(feature):指的是样本中输入部分,比如2个单特征的样本(x(0),y(0)),(x(1),y(1)),则第一个样本特征为x(0),第一个样本输出为y(0)。

    3. 假设函数(hypothesis function):在监督学习中,为了拟合输入样本,而使用的假设函数,记为hθ(x)。比如对于单个特征的m个样本(x(i),y(i))(i=1,2,...m),可以采用拟合函数如下: hθ(x)=θ0+θ1x。(有点类似于线性回归当中的线性函数)

    4. 损失函数(loss function):为了评估模型拟合的好坏,通常用损失函数来度量拟合的程度。损失函数极小化,意味着拟合程度最好,对应的模型参数即为最优参数。在线性回归中,损失函数通常为样本输出和假设函数的差取平方。比如对于m个样本(xi,yi)(i=1,2,...m)(xi,yi)(i=1,2,...m),采用线性回归,损失函数为:

   

最小二乘法的函数 

     其中xi表示第i个样本特征,yi表示第i个样本对应的输出,hθ(xi)为假设函数。

3.3 梯度下降的详细算法

    梯度下降法的算法可以有代数法矩阵法(也称向量法)两种表示,如果对矩阵分析不熟悉,则代数法更加容易理解。不过矩阵法更加的简洁,且由于使用了矩阵,实现逻辑更加的一目了然。这里先介绍代数法,后介绍矩阵法。

3.3.1 梯度下降法的代数方式描述

 1. 先决条件: 确认优化模型的假设函数和损失函数。

比如对于线性回归,假设函数表示为 hθ(x1,x2,...xn)=θ0+θ1x1+...+θnxn,

其中θi (i = 0,1,2... n)为模型参数,

xi (i = 0,1,2... n)为每个样本的n个特征值。

这个表示可以简化,我们增加一个特征x0=1 ,这样

使得式子能够简化。 

同样是线性回归,对应于上面的假设函数,损失函数为:

2. 算法相关参数初始化:主要是初始化θ0,θ1...,θn、算法终止距离ε以及步长α。在没有任何先验知识的时候,我喜欢将所有的θ初始化为0, 将步长初始化为1。在调优的时候再 优化。

3. 算法过程:

线性函数例子

 

3.4 梯度下降的算法调优

在使用梯度下降时,需要进行调优。哪些地方需要调优呢?

    1. 算法的步长选择。在前面的算法描述中,我提到取步长为1,但是实际上取值取决于数据样本,可以多取一些值,从大到小,分别运行算法,看看迭代效果,如果损失函数在变小,说明取值有效,否则要增大步长。前面说了。步长太大,会导致迭代过快,甚至有可能错过最优解。步长太小,迭代速度太慢,很长时间算法都不能结束。所以算法的步长需要多次运行后才能得到一个较为优的值。

    2. 算法参数的初始值选择。 初始值不同,获得的最小值也有可能不同,因此梯度下降求得的只是局部最小值;当然如果损失函数是凸函数则一定是最优解。由于有局部最优解的风险,需要多次用不同初始值运行算法,关键损失函数的最小值,选择损失函数最小化的初值。

    3.归一化。由于样本不同特征的取值范围不一样,可能导致迭代很慢,为了减少特征取值的影响,可以对特征数据归一化,也就是对于每个特征x,求出它的期望x¯¯¯x¯和标准差std(x),然后转化为:

      x−x¯¯¯std(x)x−x¯std(x)

    这样特征的新期望为0,新方差为1,迭代速度可以大大加快。

4. 梯度下降法大家族(BGD,SGD,MBGD)

4.1 批量梯度下降法(Batch Gradient Descent)

    批量梯度下降法,是梯度下降法最常用的形式,具体做法也就是在更新参数时使用所有的样本来进行更新,这个方法对应于前面3.3.1的线性回归的梯度下降算法,也就是说3.3.1的梯度下降算法就是批量梯度下降法。  

  

(所有样本全部都使用上了)

    由于我们有m个样本,这里求梯度的时候就用了所有m个样本的梯度数据。

4.2 随机梯度下降法(Stochastic Gradient Descent)

    随机梯度下降法,其实和批量梯度下降法原理类似,区别在与求梯度时没有用所有的m个样本的数据,而是仅仅选取一个样本j来求梯度。对应的更新公式是:

 

 

    随机梯度下降法,和4.1的批量梯度下降法是两个极端,一个采用所有数据来梯度下降,一个用一个样本来梯度下降。自然各自的优缺点都非常突出。对于训练速度来说,随机梯度下降法由于每次仅仅采用一个样本来迭代,训练速度很快,而批量梯度下降法在样本量很大的时候,训练速度不能让人满意。对于准确度来说,随机梯度下降法用于仅仅用一个样本决定梯度方向,导致解很有可能不是最优。对于收敛速度来说,由于随机梯度下降法一次迭代一个样本,导致迭代方向变化很大,不能很快的收敛到局部最优解。

    那么,有没有一个中庸的办法能够结合两种方法的优点呢?有!这就是4.3的小批量梯度下降法。

4.3 小批量梯度下降法(Mini-batch Gradient Descent)

  小批量梯度下降法是批量梯度下降法和随机梯度下降法的折衷,也就是对于m个样本,我们采用x个样子来迭代,1<x<m。一般可以取x=10,当然根据样本的数据,可以调整这个x的值。对应的更新公式是:

   )

 

5. 梯度下降法和其他无约束优化算法的比较

    在机器学习中的无约束优化算法,除了梯度下降以外,还有前面提到的最小二乘法,此外还有牛顿法和拟牛顿法。

    梯度下降法和最小二乘法相比,梯度下降法需要选择步长,而最小二乘法不需要。梯度下降法是迭代求解,最小二乘法是计算解析解。如果样本量不算很大,且存在解析解,最小二乘法比起梯度下降法要有优势,计算速度很快。但是如果样本量很大,用最小二乘法由于需要求一个超级大的逆矩阵,这时就很难或者很慢才能求解解析解了,使用迭代的梯度下降法比较有优势。

    梯度下降法和牛顿法/拟牛顿法相比,两者都是迭代求解,不过梯度下降法是梯度求解,而牛顿法/拟牛顿法是用二阶的海森矩阵的逆矩阵或伪逆矩阵求解。相对而言,使用牛顿法/拟牛顿法收敛更快。但是每次迭代的时间比梯度下降法长。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
### 回答1: 波士顿房价预测是一个经典的回归问题,可以使用梯度下降法来解决。以下是一些步骤: 1. 收集和整理数据集,包括波士顿房屋的各种特征(如房间数量、犯罪率、是否靠近河流等)以及其价格。 2. 对数据集进行预处理,例如标准化、归一化等操作,以便更好地训练模型。 3. 构建模型,可以选择使用线性回归模型或其他更高级的模型,例如多项式回归、岭回归等。 4. 定义损失函数,通常使用均方误差(MSE)作为损失函数。 5. 使用梯度下降法来优化模型,不断迭代更新参数,使得损失函数最小化。 6. 使用测试数据集来评估模型的性能,可以计算出模型的均方根误差(RMSE)或平均绝对误差(MAE)等指标。 7. 如果模型表现良好,则可以将其用于实际应用中,例如预测新的房屋价格。 需要注意的是,梯度下降法需要选择合适的学习率和迭代次数,以避免过拟合或欠拟合的情况。同时,还需要进行特征选择和模型调参等操作,以优化模型的性能。 ### 回答2: 梯度下降法是一种常用的机器学习算法,用于预测波士顿房价。该算法的目标是通过最小化预测值和真实房价之间的平均平方误差来训练模型。 首先,我们需要收集波士顿的房价数据,包括不同房屋的特征,如房间数量、犯罪率、学生/教师比例等。然后,将数据分为训练集和测试集。 接下来,我们初始化模型的参数,如截距和特征权重。通过迭代的方式,我们计算每个参数的梯度和损失函数的值,并更新参数值以最小化损失函数。 在每次迭代中,我们选择一个训练样本,并计算预测值与实际房价的差异。然后,使用差异值和该样本的特征值计算每个参数的梯度。在梯度下降中,我们将参数值沿着梯度的方向更新,以减小损失函数。 重复执行上述步骤,直到达到指定的停止条件,例如达到最大迭代次数或损失函数的改进不再显著。在训练完成后,我们可以对模型进行评估,使用测试集计算预测结果与真实房价之间的均方根误差等指标。 梯度下降法的优点是它可以处理大量的特征和样本,并且计算速度较快。然而,它可能陷入局部最小值,并且需要适当的学习率来避免震荡或收敛问题。 综上所述,梯度下降法是一种有效的预测波士顿房价的算法。通过最小化损失函数来优化参数值,我们可以得到用于预测房价的模型。这种方法可以应用于各种机器学习问题,并且在波士顿房价预测中取得了较好的效果。 ### 回答3: 梯度下降法是一种常用的优化算法,用于求解目标函数的最小值。在波士顿房价预测问题中,我们可以将房价作为目标函数,通过梯度下降法来找到最佳的模型参数。 首先,我们需要找到一个合适的模型来描述波士顿房价与各个特征之间的关系。常用的模型是线性回归模型,即房价与各个特征之间的线性组合。 然后,我们需要定义一个损失函数,来衡量模型预测值与实际房价之间的差距。通常采用均方误差作为损失函数,即预测值与实际值之间的平方差的均值。 接下来,我们使用梯度下降法来更新模型参数。首先随机初始化模型参数,然后通过不断更新参数来最小化损失函数。具体而言,我们计算损失函数对于模型参数的偏导数,然后使用学习率乘以偏导数来更新参数。学习率控制每次更新的步长,可以通过实验来进行调整。 重复以上步骤直到损失函数收敛或达到预设的停止条件。最终得到的模型参数就可以用于预测波士顿房价。 需要注意的是,梯度下降法可能陷入局部最优解,因此可以通过设置不同的初始参数和学习率,或者尝试其他优化算法(如随机梯度下降法、牛顿法等)来进一步优化模型性能。 总之,梯度下降法是一种常用的优化算法,适用于波士顿房价预测问题。通过不断更新模型参数,最小化损失函数,我们可以得到一个较好的预测模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值