1.7优化(optimization)

1.7 优化(optimization)

1.7.1 梯度下降(Gradient Descent)

解决回归算法中一些求拟合线性方程最优解问题,即最小化损失函数J(θ) = ( h(x) - y )^2的问题,有两种求解方法:最小二乘法和梯度下降法。而通过矩阵求解最小二乘公式中:θ = ( XTX)-1XTy→要求X是列满秩的,而且求矩阵的逆比较慢,所以一般采用梯度下降法。

算法目标是最小化J(θ),找到最优解。首先引入梯度概念:

由公式可见,对点x0的导数反映了函数在点x0的瞬时变化速率,或者叫在点x0处的斜度。推广到多维函数中,就有了梯度的概念,梯度是一个向量组合,反映了多维图形中变化速率最快的方向。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
交替优化是一种优化方法,其基本思路是在多个变量或多个模型之间进行交替的优化。该方法常用于解决多变量或多模型之间相互依赖的问题,以达到最优解或次优解。 交替优化的步骤如下: 1. 初始化变量或模型参数。 2. 固定其中一个变量或模型参数,针对其它变量或模型进行优化。 3. 交替固定不同的变量或模型参数,依次进行优化,直至达到收敛条件。 交替优化的主要优势有: 1. 可以处理多变量或多模型之间的依赖关系。当多个变量或模型之间相互影响、相互依赖时,交替优化可以通过不断迭代优化不同的变量或模型,逐渐减小它们之间的耦合程度,达到全局最优或近似最优解。 2. 计算效率较高。由于每次只优化其中一个变量或模型,交替优化可以减小整体的复杂度,加快优化过程的收敛速度。 3. 简单易实现。交替优化的思想简单明了,容易理解和实现,适用于许多优化问题。 然而,交替优化也存在一些局限性,包括: 1. 可能收敛到局部最优解。当存在多个局部最优解时,交替优化可能无法找到全局最优解,而只能收敛到局部最优解。 2. 收敛速度较慢。由于每次只优化其中一个变量或模型,交替优化可能需要较多的迭代次数才能达到收敛条件。 3. 对初始值较为敏感。交替优化对初始值较为敏感,不同的初始值可能导致不同的优化结果。 综上所述,交替优化是一种简单有效的优化方法,适用于解决多变量或多模型间依赖关系的问题。尽管存在一些局限性,但在实际应用中,交替优化仍然具有广泛的应用价值。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值