非线性优化

  • 概念
    • 非线性优化就是求函数的极值。在线性函数当中,函数的极值是简单的,函数只能是单调增或者单调减,找到边界就可以找到极值 (例如 f ( x ) = a x + b f(x)=ax+b f(x)=ax+b)。简单的非线性函数(例如 f ( x ) = x 2 f(x)=x^2 f(x)=x2)可以通过求导得到极值点,然后得到极值。但对于复杂的线性函数,或者复杂的数学模型,求导很苦难或者无法求导那么该如何求极值呢?
    • 非线性优化算法就是用来解决对于复杂函数模型求极值的问题。
  • 一些基础
    • 协方差计算
      c o v ( x , x ) = V a r ( x ) cov(x,x)=Var(x) cov(x,x)=Var(x)
      c o v ( A x , A x ) = A c o v ( x , x ) A T = c o v ( A x + k , A x + k ) cov(Ax,Ax)=Acov(x,x)A^T=cov(Ax+k,Ax+k) cov(Ax,Ax)=Acov(x,x)AT=cov(Ax+k,Ax+k)
  • 非线性最小二乘
    • 非线性最小二乘的目标函数具有明确的物理意义–残差
    • 当我们用一个模型 ϕ ( t ) \phi(t) ϕ(t)来描述现实中的一系列数据时,模型的预测结果与实际的测量结果总会存在一定偏差,这一偏差就称为残差。非线性最小二乘的目的就是,调整模型的参数,使得总的残差最小。
  • 泰勒展开
    • 函数 f f f的泰勒展开式是
      f ( x ) = ∑ n = 0 ∞ f ( n ) ( a ) n ! ( x − a ) n . f(x) = \sum_{n=0}^\infty \frac{f^{(n)}(a)}{n!} (x-a)^n. f(x)=n=0n!f(n)(a)(xa)n.
      假设 ϵ \epsilon ϵ是一个足够小的数,将上式中 x x x a a a分别替换成 x + ϵ x+\epsilon x+ϵ x x x,可以得到
      f ( x + ϵ ) ≈ f ( x ) + f ′ ( x ) ϵ + O ( ϵ 2 ) . f(x + \epsilon) \approx f(x) + f'(x) \epsilon + \mathcal{O}(\epsilon^2). f(x+ϵ)f(x)+f(x)ϵ+O(ϵ2).
      由于 ϵ \epsilon ϵ足够小,上式也可以简化成
      f ( x + ϵ ) ≈ f ( x ) + f ′ ( x ) ϵ . f(x + \epsilon) \approx f(x) + f'(x) \epsilon. f(x+ϵ)f(x)+f(x)ϵ.

参考:
动手学习深度学习
非线性最小二乘

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值