【MATLAB与机械设计】多维优化之共轭梯度法

1.程序框图
在这里插入图片描述
2.MATLAB可执行代码:

代码说明:
由于该程序中求解步长采用最优步长的求解方法,对于变量的指数小于等于二有唯一的实数解,但当大于二以后,就又能存在复数解,本程序采用选取最后MATLAB中自动求解的最后一个解作为最优步长,对于以前编写的代码,也会有此种情况。如果有不同见解,希望留言。

function [k,x_min,f_min]=Conjugate_Gradient_Method(f,x,exp) 
%% 程序说明
%{
该程序应用于多维无条件优化问题中的共轭梯度法
变量说明:
    输入值部分
        f为目标函数,对于目标函数中自由变量的个数没有要求
        x为初值矩阵,要求在调用函数是必须为一行n列的形式,否则会导致后期维度出现错误
        exp为精度
    返回值部分
        k为迭代次数
        x_min为函数的局部极小值数列
        f_min为函数的局部极小值

调用方法:
clc
clear
syms x1 x2%所有的自由变量且必须由x1,x2,x3……表示
x=[0,0]';%为了后期调用,此处应为列向量
f=x1^2+x2^2-x1*x2-10*x1-4*x2+60;
exp=0.01;
[k,x_min,f_min]=Conjugate_Gradient_Method(f,x,exp)

%}
%% 函数主体
x_size=size(x,1);
x_i= sym(zeros(1,x_size));
%class(x_i)
for i=1:x_size
    syms(['x' num2str(i)]);
    x_i(1,i)=['x' num2str(i)];
end
grad_f=gradient(f,x_i);
fz_d=-subs(grad_f,x_i,x);
fz_d=double(fz_d);
%class(fz_d);
fz_dm=norm(fz_d);
k=0;
s=-fz_d;
while 1
    syms a 
    f_b=subs(f,x_i,x+a.*s);
    f_bd=diff(f_b,a);
    a=solve(f_bd==0,a);
    a=double(a);
    %% 筛选出实数根
    j=0;
    for i=1:size(a,2)
        if ~(isreal(a(i,1)))
            j=j+1;
        else
            a=a(i,1);   
        end
    end
    if j==size(a,2)
        disp('><');
        break;
    end
    %% 迭代
    x=x+a.*s;
    fz_d1=-subs(grad_f,x_i,x);
    fz_d1=double(fz_d1);
%class(fz_d);
    fz_dm1=norm(fz_d1);
if  fz_d1<=exp
    x_min=x
    f_min=subs(f,x_i,x_min)
    break
else
    if k<x_size-1
        bata_k=(fz_dm1^2)/(fz_dm^2);
        s=-fz_d1+bata_k.*s;
        k=k+1;
    else
        grad_f=gradient(f,x_i);
        fz_d=-subs(grad_f,x_i,x);
        fz_d=double(fz_d);
%class(fz_d)
        fz_dm=norm(fz_d);
        s=fz_d;
    end
end
end
x_min;
f_min=subs(f,x_i,x_min);
end
  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
以下是两种MATLAB编写的最优化共轭梯度法的代码: 1. 使用黄金分割法精确一维搜索的最优化共轭梯度法代码: ```matlab function [x, fval] = conjugate_gradient_golden(x0, epsilon) % 初始化 x = x0; fval = objective_function(x); grad = gradient(x); d = -grad; % 迭代 while norm(grad) > epsilon alpha = golden_section_search(x, d); x = x + alpha * d; grad_new = gradient(x); beta = norm(grad_new)^2 / norm(grad)^2; d = -grad_new + beta * d; grad = grad_new; fval = objective_function(x); end end function fval = objective_function(x) % 目标函数 fval = x(1)^2 + 2 * x(2)^2; end function grad = gradient(x) % 数值微分法计算梯度 h = 1e-6; grad = zeros(size(x)); for i = 1:length(x) x_plus_h = x; x_plus_h(i) = x_plus_h(i) + h; grad(i) = (objective_function(x_plus_h) - objective_function(x)) / h; end end function alpha = golden_section_search(x, d) % 黄金分割法精确一维搜索 a = 0; b = 1; rho = 0.618; epsilon = 1e-6; while abs(b - a) > epsilon x1 = a + (1 - rho) * (b - a); x2 = a + rho * (b - a); f1 = objective_function(x + x1 * d); f2 = objective_function(x + x2 * d); if f1 < f2 b = x2; else a = x1; end end alpha = (a + b) / 2; end ``` 2. 使用Wolfe-Powell非精确一维搜索的最优化共轭梯度法代码: ```matlab function [x, fval] = conjugate_gradient_wolfe_powell(x0, epsilon) % 初始化 x = x0; fval = objective_function(x); grad = gradient(x); d = -grad; % 迭代 while norm(grad) > epsilon alpha = wolfe_powell_search(x, d); x = x + alpha * d; grad_new = gradient(x); beta = norm(grad_new)^2 / norm(grad)^2; d = -grad_new + beta * d; grad = grad_new; fval = objective_function(x); end end function fval = objective_function(x) % 目标函数 fval = x(1)^2 + 2 * x(2)^2; end function grad = gradient(x) % 数值微分法计算梯度 h = 1e-6; grad = zeros(size(x)); for i = 1:length(x) x_plus_h = x; x_plus_h(i) = x_plus_h(i) + h; grad(i) = (objective_function(x_plus_h) - objective_function(x)) / h; end end function alpha = wolfe_powell_search(x, d) % Wolfe-Powell非精确一维搜索 alpha = 1; c1 = 0.1; c2 = 0.9; rho = 0.618; epsilon = 1e-6; while true f0 = objective_function(x); g0 = gradient(x); f1 = objective_function(x + alpha * d); if f1 > f0 + c1 * alpha * g0' * d || (f1 >= objective_function(x + alpha * d) && alpha < epsilon) alpha = zoom(x, d, alpha); break; end g1 = gradient(x + alpha * d); if abs(g1' * d) <= -c2 * g0' * d break; end if g1' * d >= 0 alpha = zoom(x, d, alpha); break; end alpha = rho * alpha; end end function alpha = zoom(x, d, alpha_lo) % Wolfe-Powell非精确一维搜索中的zoom函数 alpha_hi = alpha_lo * 2; c1 = 0.1; c2 = 0.9; epsilon = 1e-6; while true alpha = (alpha_lo + alpha_hi) / 2; f0 = objective_function(x); g0 = gradient(x); f1 = objective_function(x + alpha * d); if f1 > f0 + c1 * alpha * g0' * d || f1 >= objective_function(x + alpha * d) alpha_hi = alpha; else g1 = gradient(x + alpha * d); if abs(g1' * d) <= -c2 * g0' * d break; end if g1' * d * (alpha_hi - alpha_lo) >= 0 alpha_hi = alpha_lo; end alpha_lo = alpha; end if abs(alpha_hi - alpha_lo) < epsilon break; end end end ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱读书的小丁同学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值