优化算法总结

本文总结了优化算法中的几种重要方法,包括梯度下降法及其变种(随机梯度下降法、小批量梯度下降法、Momentum、Nesterov、Adagrad、Adadelta、RMSProp和Adam),以及牛顿法。讨论了这些算法的优缺点,如何解决局部最优问题,并提供了迭代公式。
摘要由CSDN通过智能技术生成

背景

对一个多元函数 f ( x ) f(x) f(x) 求最小值,当无法准确求出其准确结果时,需要用到其导数。

根据泰勒公式, f ( x ) f(x) f(x) x k x_k xk 处展开二阶导:
f ( x ) ≈ f ( x k ) + ∇ x f ′ ( x k ) ( x − x k ) T + 1 2 ( x − x k ) T ∇ x 2 f ′ ′ ( x k ) ( x − x k ) f(x) \approx f(x_k) + \nabla_x f'(x_k)(x - x_k)^T + \frac{1}{2} (x - x_k)^T \nabla_x^2f''(x_k) (x - x_k) f(x)f(xk)+xf(xk)(xxk)T+21(xxk)Tx2f(xk)(xxk)
其中,一阶导梯度和二阶导 H e s s i a n Hessian Hessian 矩阵如下:
g k = f ′ ( x k ) = ( ∂ f ( x k ) ∂ x 1 , ∂ f ( x k ) ∂ x 2 , … , ∂ f ( x k ) ∂ x n ) H k − 1 = f ′ ′ ( x k ) − 1 = ( ∂ 2 f ( x k ) ∂ 2 x 1 2 ⋯ ∂ 2 f ( x k ) ∂ x 1 ∂ x n ⋮ ∂ 2 f ( x k ) ∂ x i ∂ x j ⋮ ∂ 2 f ( x k ) ∂ x n ∂ x 1 ⋯ ∂

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值