matlab 梯度下降法_梯度下降法与牛顿法的比较

本文对比分析了机器学习中常用的优化方法——梯度下降法和牛顿法。梯度下降通过搜索负梯度方向更新参数,包括批量、随机和小批量三种形式。牛顿法则利用二阶导数的海森矩阵寻找极值点,但计算复杂。两者在收敛速度和计算成本上存在差异。
摘要由CSDN通过智能技术生成

7745b6f6fc9388e20c4ca0bf34c32d5f.png

引言:

机器学习的本质是建立优化模型,通过优化方法,不断迭代参数向量,找到使目标函数最优的参数向量,最终建立模型。

通常用到的优化方法:梯度下降方法、牛顿法、拟牛顿法等。这些优化方法的本质就是在更新参数。

一:梯度下降法

梯度下降的思想:

通过搜索方向和步长来对参数进行更新。其中搜索方向是目标函数在当前位置的负梯度方向。因为这个方向是最快的下降方向。步长确定了沿着这个搜索方向下降的大小。迭代的过程就像是在不断的下坡,最终到达坡地。

接下来的目标函数以线性回归的目标函数为例:

ed4e2a7c663dd5df2f1a96b1f230c98a.png

396cd5e549291e341b0520775e5c56b4.png

  1、批量梯度下降法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值