机器学习训练算法六(最速下降法)

13 篇文章 0 订阅
11 篇文章 2 订阅

连续函数的最优化方法-最速下降法

1、介绍

最速下降法和梯度下降法基本相同,就是选择该点梯度的反方向进行搜索;区别在于,梯度下降法需要预先根据经验设定公式 20 的步长 η \eta η的值,而最速下降法则是在求出梯度方向后再搜索得到最优步长 η k \eta_{k} ηk

2、数学原理

公式 20 的结果代入公式 10 可推得:
K ( η ) = d e f F ( X k − η × J ( X k ) ⏟ F ) ( 公 式 21 ) K(\eta) \stackrel{\mathrm{def}}{=} F(X_k-\eta\times \underbrace{J(X_k)}_{F} ) \qquad (公式21) K(η)=defF(Xkη×F J(Xk))(21)
公式21最优步长因子 η k \eta_{k} ηk是当函数 K ( η ) K(\eta) K(η)取得最小值的时候,自变量 η \eta η的取值:
η k = d e f a r g   min ⁡ η ∈ R   K ( η ) ( 公 式 22 ) \eta_{k} \stackrel{\mathrm{def}}{=} arg\ \underset{\eta \in R}{\min}\ K(\eta) \qquad (公式22) ηk=defarg ηRmin K(η)(22)
公式 20 和公式 22 可推得目标函数 F ( X ) F(X) F(X)的最优化迭代公式:
X k + 1 = d e f X k − η k × J ( X k ) ⏟ F ( 公 式 23 ) X_{k+1} \stackrel{\mathrm{def}}{=} X_{k}-\eta_{k} \times \underbrace{J(X_k)}_{F} \qquad (公式23) Xk+1=defXkηk×F J(Xk)(23)

3、Matlab程序

链接地址

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值