最优化
执笔论英雄
这个作者很懒,什么都没留下…
展开
-
Numerical Optimization---拟牛顿法
求最优化问题,在局部内用一个二次函数来近似要求对称正定时,才是下降方向拟牛顿法对于拟牛顿法,采用mk(p)来近似f(xk+p)m_k(p)来近似f(x_k+p)mk(p)来近似f(xk+p)Bk+1=yk/sk=Δfk+1−Δfkxk+1−xkB_{k+1}=y_k/s_k=\frac{\Delta f_{k+1}-\Delta f_k}{x_{k+1}-x_k}Bk+1=y...原创 2020-03-25 11:50:02 · 144 阅读 · 0 评论 -
Numerical Optimization---Nonlinear conjugate Gradient Methods
在线性共轭梯度法中αk\alpha_kαk 精确线搜索可以精确得到,当在非线性共轭梯度法中的αk\alpha_kαk 就不能采用精确线搜索,因为对于非线性复杂函数采用的精确线搜索关于αk\alpha_kαk的函数和原函数一样的复杂。因此 可以使用非精确线搜索来得到对应的αk\alpha_kαk定理7 保证了PkP_kPk是下降方向的,if 参生一个坏的下下降方向(与负梯度方...原创 2020-03-25 08:29:47 · 314 阅读 · 0 评论 -
Numerical Optimization共轭梯度法
n个pin个p_in个pi线性无关且共轭,表示为x的基这样极小化括号的数,转化为n个一维的优化问题共轭法搜索步长αk\alpha_kαk是通过极小化Φ(xk+αpk)\Phi(x_k+\alpha p_k)Φ(xk+αpk)得到的即对于凸的二次函数,共轭算法的步长是可能精确计算得到的证明举例二维的问题,ϕ(x)\phi(x)ϕ(x)的等高线是椭圆,由于A是对角...原创 2020-03-23 20:58:57 · 367 阅读 · 0 评论 -
Numerical Optimization之信任域方法——Dogleg
上文中提到的近似柯西方向是延梯度方向下降一定步长,但是没有充分利用B矩阵,为此DOgleg 方法,当PB在信赖域中时利用PB,负责的话利用梯度方向下降一定步长,并且下降步长的计算方法也有所不同:在柯西方法中是τΔ/∣∣g∣∣\tau\Delta/||g||τΔ/∣∣g∣∣,而Dogleg 中下降步长a=−gTggTBga=-\frac{g^Tg}{g^TBg}a=−gTBggTgPkBP...原创 2020-03-23 12:28:15 · 457 阅读 · 0 评论 -
最优化理论笔记
https://blog.csdn.net/chunyun0716/article/details/70182927原创 2018-11-18 16:53:11 · 821 阅读 · 0 评论