高数基础——线搜索

目录

1,无约束优化问题(unconstrained optimization)

(1)如果​且​,则​为全局最优点---最小值点

(2)如果存在​的一个邻域​,使得​且​,则称​为局部最优点---极小值点

2,线搜索方法(line search)

(1)概念

(2)方法

(3)线搜索步骤

3,置信域方法(trust region)


1,无约束优化问题(unconstrained optimization)

\underset{x{\in}\mathbb{R}^{n}}{min}f(x)

无优化约束问题:即找f(x)函数在x\in \mathbb{R}^{n}上的最小化的最优解x^{\ast }f(x^{\ast })问题

(1)如果f(x^{\ast })\leq f(x)\forall{x\in \mathbb{R}^{n}},则x^{\ast }为全局最优点---最小值点

(2)如果存在x^{\ast }的一个邻域\mathfrak{N},使得f(x^{\ast })\leq f(x)\forall{x\in \mathfrak{n}},则称x^{\ast }为局部最优点---极小值点

Theorem.1:局部极小值点,一阶导为0

Theorem.2:\bigtriangledown^{2}f(x),海瑟矩阵半正定(positive semidefinite)

Theorem.3:(二阶充分条件)\bigtriangledown{f(x^{\ast })}=0\bigtriangledown^{2}f(x^{\ast }) is positive definite,则x^{\ast }是局部极小值点---判断最优解的法则

Theorem.4:若f为凸函数,则任意一个极小值点为全局极小值点

note:非凸函数---遗传算法/离子群算法(启发式方法,无理论)

期待跳出局部极值,达到全局极值

2,线搜索方法(line search)

(1)概念

构造一系列收敛序列\left \{ x_{k} \right \}收敛到最优点x^{\ast },每次对于当前的状态x_{k},选择优化方向P_{k},以及最优步长\alpha,最终使得\underset{\alpha > 0}{min}f(x_{k}+\alpha P_{k})

                                              {\color{Red} x_{k}\rightarrow x^{\ast }}                                                                                                                         {\color{Red}x_{k+1}=x_{k}+\alpha P_{k} }

(2)方法

在线搜索(line search)方法中,主要的迭代为

x_{k+1}=x_{k}+\alpha P_{k}

成功的线搜索方法取决于方向P_{k}和步长(step length)\alpha _{k}的选择。

大多数线搜索算法中,要求P_{k}是一个下降方向(descent direction),即P_{k}^{T}\bigtriangledown{f_{k}}< 0梯度与P_{k}点积小于0),一般而言,要求线搜索的方向有下述形式

P_{k}=-B_{k}^{-1}\bigtriangledown{f_{k}}

其中B_{k}是一个对称正定的满秩矩阵(symmetric and nonsingulear),\bigtriangledown{f_{k}}| _{x=x_{k}}是梯度(梯度是上升最快的方向

【1】steepest descent method:I(单位矩阵)-\bigtriangledown{f_{k}}   --- 最速下降法

【2】Newton's method:the exact Hessian \bigtriangledown^{2}f(x_{k})  --- 海瑟矩阵估计法

【3】Quasi-Newton method:an approximation to the Hessian that is updated at every iteration by means of a low-rank formula. --- 拟牛顿法(为了避开海瑟矩阵求逆)

note:点积 \left \langle a;b \right \rangle=\left \| a \right \|\left \| b \right \|cos(a,b),正负取决于 \overrightarrow{a}\overrightarrow{b}的夹角(象限左边为负,右边为正)

          所以与梯度夹角\pm 90^{\circ}以内为上升方向,与梯度夹角> 90^{\circ}为下降方向

(3)线搜索步骤

【1】计算搜索方向P_{k} from x_{k}

【2】确定P_{k}为下降方向,P_{k}^{T}\bigtriangledown{f_{k}}< 0

【3】确定步长\alpha_{k}>0f(x_{k})=f(x_{k}+\alpha_{k}P_{k})<f_k

【4】computation of \alpha_{k} is the linesearch -- may itself be an iteration

【5】generic linesearch method:x_{k+1}=x_{k}+\alpha P_{k} 

3,置信域方法(trust region)

x_{k}附近构造一个模型函数(model function)m_{k}作为fx_{k}附近的一个估计,当然这个估计只能在局部是比较好的,然后我们去求解下述子问题

\underset{p}{min}m_{k}f(x_{k}+ p)

 where x_{k}+p lies in the trust region.

把函数分区,在每一区域用模型函数估计一个近似函数 --- 泰勒展开,海瑟矩阵

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

非零因子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值