非线性优化
KCDKFT
Life is war with no mercy.
展开
-
DoglegMethod——“狗腿”算法(上)
参考文献:“Numerical Optimization” ---Page71 Dogleg MethodAuthor:Jorge Nocedal & Stephen J. Wright问题来源:对于最速下降法,本质的等式在于x(k+1) = x(k) + a(k)*d(k),x(k)为定义域上的点,a(k)为前进的步长,是一个标量,d(k)是前进的方向, 对于高维变量d(k)就原创 2013-11-22 13:19:11 · 13180 阅读 · 7 评论 -
DoglegMethod——“狗腿”算法(中)
这周上完最优化算法,又跑去问了问老师Dogleg算法上的疑问,应该说是解决了上篇日志《DoglegMethod——“狗腿”算法(上)》的疑问,也纠正了我对于信赖域方法的一些错误的看法。首先对于信赖域方法以及基于信赖域方法的Dogleg算法,我有一个错误的观点是:信赖域方法本质是在求最优下降方向dk,而步长ak则用线搜索等方法求解。但是信赖域方法实际上是给出了sk=ak·dk,只不过如果原创 2013-11-28 20:01:10 · 5762 阅读 · 19 评论 -
DoglegMethod——“狗腿”算法(下)
好吧,楼主经过努力的调试找BUG,终于可以给大家写这个下篇了,为了验证Dogleg算法对于一般的函数也管用,楼主把优化的函数换成了y = (x1-1)*(x1-2)*(x1-3)*(x1-4) + (x2-1)*(x2-2)*(x2-3)*(x2-4);然后,很神奇,不论我怎么调试,结果都是很差很差,而且算法定的方向是原理最小值点的,这让我非常的困惑。经过不断地原创 2013-12-05 23:17:54 · 3450 阅读 · 1 评论