牛顿修正法在二阶近似方法中的应用

文章介绍了如何使用optimtool包中的牛顿修正法进行函数优化,特别讨论了该包在处理无不可微项的可微函数时的局限性。通过Hager函数的例子展示了算法的应用,并强调了牛顿修正法在科学计算和大数据参数学习中的重要性,特别是在增强模型泛化能力和决策水平方面。
摘要由CSDN通过智能技术生成

使用optimtool的牛顿修正法来应用学习

pip install optimtool --upgrade
pip install optimtool>=2.4.2

optimtool包所依据的理论支撑中,还没有为二阶微分方法作邻近算子的近似与修正,所以二阶近似方法是研究无不可微项的可微函数的算子。

牛顿修正法的调用

import optimtool.unconstrain as ou
newton_api = ou.newton.modified
print(newton_api(funcs, args, x_0)) # funcs, args, x_0

函数示例与算法可视化

Hager function :
f ( x ) = ∑ i = 1 n ( exp ⁡ x i − i x i ) , x 0 = [ 1 , 1 , . . . , 1 ] . f(x)=\sum_{i=1}^{n}(\exp{x_i}-\sqrt{i}x_i), x_0=[1,1,...,1]. f(x)=i=1n(expxii xi),x0=[1,1,...,1].

x = sp.symbols("x1:5")
f = (sp.exp(x[0]) - x[0]) + \
    (sp.exp(x[1]) - sp.sqrt(2) * x[1]) + \
    (sp.exp(x[2]) - sp.sqrt(3) * x[2]) + \
    (sp.exp(x[3]) - sp.sqrt(4) * x[3])
x_0 = (0.5, 0.5, 0.5, 0.5) # Random given

可视化图例:
在这里插入图片描述
在科学计算领域,没有牛顿修正法研究不了的可微函数,混合优化一般适用于大数据参数的自动学习,对一阶微分的多元点作邻近近似,以达到减弱训练集学习程度,并增加测试集,或由用户组设置或输入的数据的泛化与决策水平。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DeeGLMath

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值