最优化算法基础

本文介绍了最优化算法的基础知识,涵盖了从梯度方法(随机梯度下降、Momentum、Adagrad、Rmsprop、Adam)到牛顿方法(牛顿法、修正牛顿法、拟牛顿法DEP、BFGS、L-BFGS、OWL-QN),以及坐标下降法。这些方法在机器学习和优化问题中有着广泛应用。
摘要由CSDN通过智能技术生成
  • 一、问题定义
  • 二、代数方法求解
  • 三、迭代优化方法求解
    • 3.1 梯度方法
      • 3.1.1 随机梯度下降
      • 3.1.2 Momentum
      • 3.1.3 Adagrad
      • 3.1.4 Rmsprop
      • 3.1.5 Adam
    • 3.2 牛顿方法
      • 3.2.1 牛顿法
      • 3.2.2 修正牛顿法
      • 3.2.3 拟牛顿法 - DEP
      • 3.2.4 拟牛顿法 - BFGS
      • 3.2.5 拟牛顿法 - L-BFGS
      • 3.2.6 OWL-QN
    • 3.3 坐标下降法

一、问题定义

空间有两个点:, 求过两个点的直线。

假设直线为:

目的:求解

二、代数方法求解

     可写成:

可以求解得:

直线为:

三、迭代优化方法求解

可以通过随机初始化一组,然后通过某种优化算法迭代求解

设初始化系数为:

定义误差函数:

可以通过寻找使误差最小的一组来求解

3.1 梯度方法

参数在误差函数的负梯度方向进行迭代更新。包括原始的随机梯度下降法以及一些改进方法,如Momentum、Adagrad、Rmsprop、Adam等。

各种方法迭代速度对比

3.1.1 随机梯度下降

初始值在,需要通过某种方式找到最优化

随机梯度法是从开始,每次向负梯度方向做一次更新,更新的速率设为

梯度计算:

参数更新方式为:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值