通俗讲解-动量梯度下降法原理与代码实例

本站原创文章,转载请说明来自《老饼讲解-BP神经网络》www.bbbdata.com

目录

一.动量梯度下降法介绍   

1.1 动量梯度下降法简介与思想      

1.2 动量梯度下降法的算法流程      

二.动量梯度下降法代码实例  

2.1 动量梯度下降法实例代码


一.动量梯度下降法介绍   

本节介绍动量梯度下降法的思想以及算法流程

1.1 动量梯度下降法简介与思想      


动量梯度下降法是对梯度下降法的一种改进,
这主要是因为梯度下降法在遇到局部最优时,毫无办法

 为了解决跳出局部最优,动量梯度下降法为此模仿物体从高处滚到低处的原理,
由于物体具有动量,遇到小坑时会由于原有动量而跃出小坑,因此,动量梯度下降法在迭代的过程中引入动量的概念,它的迭代量改为"速度",而当前的负梯度只作为速度的修改量,


动量梯度下降法迭代公式如下:
v_t=mc*v_{t-1}+(1-mc)*(-\text{lr}*g)
x_t = x_{t-1} +v_{t}
其中,mc是动量系数,一般设为0.9,g是梯度
这样做的好处是,在遇到“小坑”的时候,会因为原有的速度方向,冲出小坑

1.2 动量梯度下降法的算法流程      


动量梯度下降法的具体算法流程如下
 一、设置参数与初始化相关变量                                 
1. 设置学习率lr                                               
    lr一般设为0.1                          
2. 设置动量系数mc                                        
    mc一般设为0.9                        
3. 初始化速度v                                              
    v一般初始化为0                       
4. 初始化初始解x                                          
    x随机初始化,或者具体问题具体设定    
 二、循环迭代                                                            
  按如下步骤进行迭代                       
1.计算当前的梯度g                                         
2.计算当前的梯度对v带来的修改量dx             
    \text{dx = lr*(-}g)
3.计算当前的速度                                          
    \text{v = mc*v+(1-mc)*dx}
4.更新x                                                         
     \text{x = x + v}        
5.检查迭代终止条件                                      

    如果满足终止条件,就退出迭代程序        

    终止条件可设如下:                 

      (1)是否达到最大迭代次数         

      (2)目标函数值是否满足要求       

      (3) x是否多次变化极小           

 三、输出结果                                                            
      输出最终的求解结果x 

二.动量梯度下降法代码实例  

本节展示动量梯度下降法求解函数最小值的一个代码实例


2.1 动量梯度下降法实例代码


   
现求解 \small \text{y} = 0.4*x^2+3*\textbf{exp}\left (-(x+2)^2\right)的极小值
它的函数图像如下:

 

其中,梯度公式为\dfrac{\partial \text{y}}{\partial x}=0.8*x-6*\textbf{exp}(-(x+2)^2)*(x+2)
 按以上算法流程,编写程序如下(matlab):  

% 本代码用动量梯度下降法求解函数y = 0.4*x^2+3*exp(-(x+2)^2) 的极小值
% 代码主旨用于教学,供大家学习理解动量梯度下降法的原理
%  转载请说明来自 《老饼讲解神经网络》 bp.bbbdata.com
clc;clear all ;
line_x = -5:0.1:5;                            % 目标函数曲线x
line_y = 0.4*line_x.^2+3*exp(-(line_x+2).^2); % 目标函数曲线y
lr = 0.1;                                     % 学习率
mc = 0.9;                                     % 动量系数
x  = -4;                                      % x的初始值
v  = 0;                                       % 初始速度
for i = 1:100
   gx = -(0.8*x-6*exp(-(x+2).^2)*(x+2));      % 计算负梯度
   v  = mc*v+(1-mc)*lr*gx;                    % 将负梯度叠加到上一次速度中,作为本次的速度
   x  = x+v;                                  % 更新x
   y  = 0.4*x.^2+3*exp(-(x+2).^2);            % 计算当前的目标函数值
   fprintf('第%d轮x的迭代值x=%f\n',i,x)
   plot(line_x,line_y,x,y,'or')               % 画出曲线与当前迭代点
   drawnow;                                   % 展示图象
end

运行结果如下
第0轮x的迭代值x=-3.970198
第1轮x的迭代值x=-3.914051
第2轮x的迭代值x=-3.835152
第3轮x的迭代值x=-3.737256
第4轮x的迭代值x=-3.624348
....
第95轮x的迭代值x=0.033763
第96轮x的迭代值x=0.037061
第97轮x的迭代值x=0.041660
第98轮x的迭代值x=0.047361
第99轮x的迭代值x=0.053971
经过100步迭代,求得最后y在x=0.053971处取得极小值


相关文章 

 1-LVQ的学习目录:老饼|BP神经网络-竞争神经网络
2-径向基神经网络学习目录:老饼|径向基神经网络
3-BP的学习目录:老饼|BP神经网络-BP入门

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
一元线性回归梯度下降是一种用于求解线性回归模型参数的优化算。在梯度下降中,我们首先定义一个损失函数J(θ),其中θ表示模型的参数。然后通过迭代的方式,不断调整θ的取值,使得损失函数J(θ)的值最小化。 在一元线性回归中,我们假设目标变量y与特征变量x之间存在线性关系。我们的目标是找到一条直线,使得通过这条直线对特征变量x进行预测得到的结果与真实值y之间的误差最小。 梯度下降的思路是通过计算损失函数J(θ)对参数θ的偏导数,即∂J(θ)/∂θ,来确定参数的更新方向。我们可以通过迭代地更新参数,使得损失函数逐渐减小。 具体步骤如下: 1. 初始化参数θ的值。 2. 计算损失函数J(θ)对参数θ的偏导数∂J(θ)/∂θ。 3. 根据计算得到的偏导数值和学习率的大小,确定参数θ的更新方向和步长。 4. 更新参数θ的值,即θ = θ - 学习率 * ∂J(θ)/∂θ。 5. 重复步骤2-4,直到满足停止条件(如达到最大迭代次数或损失函数值的变化小于设定阈值)。 通过不断迭代更新参数θ的值,梯度下降可以找到使得损失函数J(θ)最小化的最优参数值。 引用中提到了为什么要使用减来更新参数,这是因为当偏导数值为负数时,说明当前参数位于损失函数的左侧,需要增大参数值才能靠近极值点。反之,当偏导数值为正数时,需要减小参数值。通过这种方式,梯度下降可以逐步接近损失函数的最小值。 引用中提到了线性回归中的损失函数J(θ),它是通过将特征变量x的值带入线性回归模型进行预测,然后计算预测结果与真实值之间差值的平方和得到的。梯度下降的目标就是求解使得损失函数最小化的参数值。 引用中提到了梯度下降中的导数项,它表示对损失函数J(θ)对参数θ的偏导数的简化形式。通过计算导数项,可以确定参数的更新方向和步长。 综上所述,一元线性回归梯度下降是一种通过迭代更新参数的优化算,用于求解线性回归模型参数使得损失函数最小化的方。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [一元线性回归梯度下降(通俗易懂,初学专属)](https://blog.csdn.net/m0_63867120/article/details/127073912)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [梯度下降--一元线性回归](https://blog.csdn.net/weixin_44246836/article/details/125128880)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

老饼讲解-BP神经网络

请老饼喝杯咖啡

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值