【MATLAB与机械设计】多维优化之DFP变尺度法

1.程序框图

在这里插入图片描述

其中E矩阵的求解公式为:

在这里插入图片描述

2.MATLAB可执行程序

function [k,x_min,f_min]= variable_metric_algorithm(f,x,exp)
%% 程序说明
%{
该程序应用于多维无条件优化问题中的变尺度法
变量说明:
    输入值部分
        f为目标函数,对于目标函数中自由变量的个数没有要求
        x为初值矩阵,要求在调用函数是必须为一行n列的形式,否则会导致后期维度出现错误
        exp为精度
    返回值部分
        k为迭代次数
        x_min为函数的局部极小值数列
        f_min为函数的局部极小值

调用方法:
clc
clear
syms x1 x2%所有的自由变量且必须由x1,x2,x3……表示
x=[0,0];
f=x1^2+x2^2-x1*x2-10*x1-4*x2+60;
exp=0.01;
[k,x_min,f_min]=variable_metric_algorithm(f,x,exp) 

%}
%% 确定维度
x_size=size(x,2);
x_i= sym(zeros(1,x_size));
%class(x_i)
for i=1:x_size
    syms(['x' num2str(i)]);
    x_i(1,i)=['x' num2str(i)];
end
%% 迭代主题
grad_f=gradient(f,x_i);
H=eye(x_size);
fz_d=-subs(grad_f,x_i,x);
fz_d=double(fz_d);
g0=fz_d;
k=0;
while 1
    s=-H*g0;
    syms a
    s=s';
    f_b=subs(f,x_i,x+a.*s);
    f_bd=diff(f_b,a);
    a=solve(f_bd==0,a);
    a=double(a);
    x_1=x+a*s;
    fz_d1=-subs(grad_f,x_i,x_1);
    fz_d1=double(fz_d1);
    fz_dm1=norm(fz_d1);
    g1=fz_d1;
if  fz_dm1<=exp
    x_min=x_1;
    f_min=subs(f,x_i,x_min);
    k=k;
    break;
else
    if k==x_size
        fz_d=-subs(grad_f,x_i,x_1);
        fz_d=double(fz_d);
        k=0;
        H=eye(x_size);
    else
        deta_x=x_1-x;
        deta_f_d=fz_d1-fz_d;
        A=(deta_x')*(deta_x);
        sub_A=(deta_x)*deta_f_d;
        B=H*deta_f_d*(deta_f_d')*H;
        sub_B=(deta_f_d')*H*deta_f_d;
        E=A./sub_A-B./sub_B;
        H=H+E;
        k=k+1;
    end
    x=x_1;
    g0=g1;
end
end
end
  • 4
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
以下是使用Matlab实现DFP拟牛顿的示例代码: ```matlab function [x, fval, exitflag, output] = dfp(fun, x0, options) % fun: 目标函数句柄 % x0: 初始点 % options: 选项结构体,包含 TolFun(函数值收敛容差)、MaxIter(最大迭代次数)等参数 % 默认选项 defaultopt = struct('TolFun', 1e-6, 'MaxIter', 1000); % 处理选项 if nargin < 3 options = []; end options = merge_options(defaultopt, options); % 初始化 n = length(x0); H = eye(n); x = x0; fval = feval(fun, x); grad = gradest(fun, x); k = 0; % 迭代 while k < options.MaxIter % 计算搜索方向 p = -H * grad; % 确定步长 alpha = linesearch(fun, x, p); % 更新x x_new = x + alpha * p; % 计算梯度和函数值 grad_new = gradest(fun, x_new); fval_new = feval(fun, x_new); % 判断收敛 if norm(fval_new - fval) < options.TolFun exitflag = 1; break; end % 更新H s = x_new - x; y = grad_new - grad; H = H + (s * s') / (s' * y) - (H * y * y' * H) / (y' * H * y); % 更新量 x = x_new; fval = fval_new; grad = grad_new; k = k + 1; end % 输出结果 if k == options.MaxIter exitflag = 0; else exitflag = 1; end output.iterations = k; output.funcCount = 2 * k + 1; output.algorithm = 'DFP quasi-Newton method'; output.message = ''; end function alpha = linesearch(fun, x, p) % 一维搜索 alpha = 1; c = 1e-4; rho = 0.9; fval = feval(fun, x); grad = gradest(fun, x); while feval(fun, x + alpha * p) > fval + c * alpha * grad' * p alpha = rho * alpha; end end function options = merge_options(defaultopt, options) % 合并选项 if isempty(options) options = defaultopt; else allfields = fieldnames(defaultopt); for i = 1:length(allfields) if ~isfield(options, allfields{i}) options.(allfields{i}) = defaultopt.(allfields{i}); end end end end ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱读书的小丁同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值