牛顿法及其下山法+C代码

引用数值分析原文的内容,可以很快的编出牛顿法的代码。牛顿法其原理如下:

从上面理论可以看出,牛顿法就是不断寻找新的点 x(k+1)来逼近目标值,其寻找方法是不断对曲线做切线,并计算“前进”距离:f'(x)=tan( f(x(k)) / (x(k) - x(k+1)))。

下面以书本的例子,编写相应的代码:





下山法是为防止迭代发散而额外加的条件。



其C语言代码如:

#include <stdio.h>
#include <stdlib.h>
#include <math.h>


#define  E 0.000001
float fun(float x, int chs)
{
float y;


if( 0 == chs )//原函数
y = x*x*x -x -1;


if( 1 == chs )//导数
y = 3*x*x -1;


return y;
}




//牛顿下山法
float newton_downhill_method(float (*fun)(float, int), int iter, float x, float C, float E1, float E2)
{
int k;
int i = 1;
float delta;
float x0, x1;
float f0, df0;
float f1, df1;
float landa = 1;


if ( 0 == C )
{
C = 1;
}


x0 = x;


while( i++ < iter )
{
f0 = fun(x0, 0);
df0 = fun(x0, 1);


x1 = x0 - f0/df0;


f1 = fun(x1, 0);
df1 = fun(x1, 1);


//添加下山法
landa = 1;
while(1)
{
if( fabs(f0) > fabs(f1) )
break;


landa = landa/2;


x1 = x0 - landa*f0/df0;


f1 = fun(x1, 0);


}



if( x1 < C )
delta = fabs(x1 -x0);
else
delta = fabs(x1 -x0)/fabs(x1);


x0 = x1;


printf("%f\n", x0);
if( delta<E1 || fabs(f1)<E2)
break;


if( 0 == df1)
{
printf("Error:df1=0,iterative calculation failure.\n");
break;
}


}


if ( i == iter )
{
printf("Error:The iteration upper limit is reached.\n");
return 0;
}


return x1;


}




//牛顿迭代法(切线法)
float newton_method(float (*fun)(float, int), int iter, float x, float C, float E1, float E2)
{
int i = 1;
float delta;
float x0, x1;
float f0, df0;
float f1, df1;


if ( 0 == C )
{
C = 1;
}


x0 = x;


while( i++ < iter )
{
f0 = fun(x0, 0);
df0 = fun(x0, 1);


x1 = x0 - f0/df0;


f1 = fun(x1, 0);
df1 = fun(x1, 1);


if( x1 < C )
delta = fabs(x1 -x0);
else
delta = fabs(x1 -x0)/fabs(x1);


x0 = x1;


printf("%f\n", x0);


if( delta<E1 || fabs(f1)<E2)
break;


if( 0 == df1)
{
printf("Error:df1=0,iterative calculation failure.\n");
break;
}


}


if ( i == iter )
{
printf("Error:The iteration upper limit is reached.\n");
return 0;
}


return x1;


}


void main()
{
int order;
int iter  = 1000;
float x0  = 0.6;
float C  = 1;


newton_downhill_method(fun, iter, x0, C, E, E);


system("pause");
}


迭代结果:


  • 6
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
牛顿下山是一种非线性优化算,旨在寻找一个函数的最小值点。以下是一个使用Matlab编写的牛顿下山的简单示例代码。 ```matlab function [x_opt, f_opt] = newton_method(f, grad, hess, x0, tol) % 牛顿下山函数 % 输入参数: % f - 目标函数 % grad - 目标函数的梯度 % hess - 目标函数的Hessian矩阵 % x0 - 初始猜测点 % tol - 容忍误差 % 输出参数: % x_opt - 最优解 % f_opt - 最优解对应的目标函数值 x = x0; x_opt = x0; f_opt = f(x0); while abs(grad(x)) >= tol p = -hess(x) \ grad(x); % 计算牛顿下山的方向 alpha = backtrack(f, grad, p, x); % 使用回溯直线搜索计算步长 x = x + alpha * p; % 迭代更新新的解 if f(x) < f_opt x_opt = x; f_opt = f(x); end end end function alpha = backtrack(f, grad, p, x) % 回溯直线搜索函数 % 输入参数: % f - 目标函数 % grad - 目标函数的梯度 % p - 下降方向 % x - 当前点 % 输出参数: % alpha - 步长 alpha = 1; % 初始步长 c = 0.5; % 回溯直线搜索参数 rho = 0.5; % 回溯直线搜索参数 while f(x + alpha*p) > f(x) + c * alpha * grad(x)' * p alpha = rho * alpha; % 更新步长 end end ``` 上述代码中,`f`是目标函数,`grad`是目标函数的梯度,`hess`是目标函数的Hessian矩阵,`x0`是初始猜测点,`tol`是容忍误差。函数`newton_method`使用牛顿下山迭代更新解,并返回最优解`x_opt`和最优解对应的目标函数值`f_opt`。函数`backtrack`使用回溯直线搜索方来计算步长`alpha`。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值