fmin在Matlab中,fminbnd函数的说明

关于非线性优化fminbnd函数的说明(仅供新手参考)

初学matlab优化,迭代中止后,经常一头雾水。参看帮助后仍似懂非懂。下面关于fminbnd函数的说明(也可作为fmincon函数的参考)对于新手也许会有帮助,不当之处请指正。目标函数fun:

需要最小化的目标函数。fun函数需要输入标量参数x,返回x处的目标函数标量值f。可以将fun函数指定为命令行,如

x = fminbnd(inline('sin(x*x)'),x0)

同样,fun参数可以是一个包含函数名的字符串。对应的函数可以是M文件、内部函数或MEX文件。若fun='myfun',则M文件函数myfun.m

有下面的形式

function f = myfun(x)

f = ...            %计算x处的函数值。

若fun函数的梯度可以算得,且options.GradObj设为'on'(用下式设定),

options = optimset('GradObj','on')

则fun函数必须返回解x处的梯度向量g到第二个输出变量中去。注意,当被调用的fun函数只需要一个输出变量时(如算法只需要目标函数的值而不需要其梯度值时),可以通过核对nargout的值来避免计算梯度值。

function [f,g] = myfun(x)

f = ...          %计算x处得函数值。

if nargout > 1   %调用fun函数并要求有两个输出变量。

g = ...       %计算x处的梯度值

end

若Hessian矩阵也可以求得,并且options.Hessian设为'on',即,

options = optimset('Hessian','on')

则fun函数必须返回解x处的Hessian对称矩阵H到第三个输出变量中去。注意,当被调用的fun函数只需要一个或两个输出变量时(如算法只需要目标函数的值f和梯度值g而不需要Hessian矩阵H时),可以通过核对nargout的值来避免计算Hessian矩阵

function [f,g,H] = myfun(x)

f = ...     % 计算x处得函数值。

if nargout > 1   % 调用fun函数并要求有两个输出变量。

g = ...    % 计算x处的梯度值。

if nargout > 2

H = ...    % 计算x处的Hessian矩阵。

End

优化参数选项options:

可以通过optimset函数设置或改变这些参数。其中有的参数适用于所有的优化算法,有的则只适用于大型优化问题,另外一些则只适用于中型问题。

首先描述适用于大型问题的选项。这仅仅是一个参考,因为使用大型问题算法有一些条件。对于fminunc函数来说,必须提供梯度信息。

LargeScale–当设为'on'时使用大型算法,若设为'off'则使用中型问题的算法。

适用于大型和中型算法的参数:

Diagnostics–打印最小化函数的诊断信息。

Display–显示水平。选择'off',不显示输出;选择'iter',显示每一步迭代过程的输出;选择'final',显示最终结果。打印最小化函数的诊断信息。

GradObj–用户定义的目标函数的梯度。对于大型问题此参数是必选的,对于中型问题则是可选项。

MaxFunEvals–函数评价的最大次数。

MaxIter–最大允许迭代次数。

TolFun–函数值的终止容限。

TolX–x处的终止容限。

只用于大型算法的参数:

Hessian–用户定义的目标函数的Hessian矩阵。

HessPattern–用于有限差分的Hessian矩阵的稀疏形式。若不方便求fun函数的稀疏Hessian矩阵H,可以通过用梯度的有限差分获得的H的稀疏结构(如非零值的位置等)来得到近似的Hessian矩阵H。若连矩阵的稀疏结构都不知道,则可以将HessPattern设为密集矩阵,在每一次迭代过程中,都将进行密集矩阵的有限差分近似(这是缺省设置)。这将非常麻烦,所以花一些力气得到Hessian矩阵的稀疏结构还是值得的。

MaxPCGIter–PCG迭代的最大次数。

PrecondBandWidth–PCG前处理的上带宽,缺省时为零。对于有些问题,增加带宽可以减少迭代次数。

TolPCG–PCG迭代的终止容限。

TypicalX–典型x值。

只用于中型算法的参数:

DerivativeCheck–对用户提供的导数和有限差分求出的导数进行对比。

DiffMaxChange–变量有限差分梯度的最大变化。

DiffMinChange - 变量有限差分梯度的最小变化。

LineSearchType–一维搜索算法的选择。exitflag:描述退出条件exitflag>0 表示目标函数收敛于解x处。

exitflag=0 表示已经达到函数评价或迭代的最大次数。

exitflag<0 表示目标函数不收敛。output:该参数包含下列优化信息:

output.iterations–迭代次数。

output.algorithm–所采用的算法。

output.funcCount–函数评价次数。

output.cgiterations–PCG迭代次数(只适用于大型规划问题)。

output.stepsize–最终步长的大小(只用于中型问题)。

output.firstorderopt–一阶优化的度量:解x处梯度的范数。

[本帖最后由 yxzjs 于 2008-1-9 23:09 编辑]

建议:

1.对于求解平方和的问题,fminunc函数不是最好的选择,用lsqnonlin函数效果更佳。

2.使用大型方法时,必须通过将options.GradObj设置为'on'来提供梯度信息,否则将给出警告信息。

关于算法:

大型优化算法  若用户在fun函数中提供梯度信息,则缺省时函数将选择大型优化算法,该算法是基于内部映射牛顿法的子空间置信域法,理论描述可参见文献[8],[9]。计算中的每一次迭代涉及到用PCG法求解大型线性系统得到的近似解。

中型优化算法  此时fminunc函数的参数options.LargeScale设置为'off'。该算法采用的是基于二次和三次混合插值一维搜索法的BFGS拟牛顿法。该法通过BFGS公式来更新Hessian矩阵。通过将HessUpdate参数设置为'dfp',可以用DFP公式来求得Hessian矩阵逆的近似。通过将HessUpdate参数设置为'steepdesc',可以用最速下降法来更新Hessian矩阵。但一般不建议使用最速下降法。

缺省时的一维搜索算法,当options.LineSearchType 设置为'quadcubic'时,将采用二次和三次混合插值法。将options.LineSearchType设置为'cubicpoly'时,将采用三次插值法。第二种方法需要的目标函数计算次数更少,但梯度的计算次数更多。这样,如果提供了梯度信息,或者能较容易地算得,则三次插值法是更佳的选择

局限性:

1.目标函数必须是连续的。fminunc函数有时会给出局部最优解。

2.fminunc函数只对实数进行优化,即x必须为实数,而且f(x)必须返回实数。当x为复数时,必须将它分解为实部和虚部。

3.在使用大型算法时,用户必须在fun函数中提供梯度(options参数中GradObj属性必须设置为'on')。

4.目前,若在fun函数中提供了解析梯度,则options参数DerivativeCheck不能用于大型算法以比较解析梯度和有限差分梯度。通过将options参数的MaxIter 属性设置为0来用中型方法核对导数。然后重新用大型方法求解问题。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值