牛顿拉普森(Newton-Raphson)求根(python,数值积分)

第十九篇 牛顿拉普森求根

插值方法的一个缺点是需要在计算确实函数值的符号是变化的。外推法则没有这个问题,但这并不是说就可以避免收敛的问题。最广泛使用的外推方法通常被称为牛顿-拉夫森法。它的外推法的原理是基于函数在猜测值处的斜率

牛顿拉普森法

假设展开一个泰勒级数,关于一个单根xi猜想。关于x方向上的“小”步长,泰勒展开式为
在这里插入图片描述
在展开式中去掉高于f’(xi)的项,并假设xi+1是求解的根,即f(xi + h) = 0,上市可以写成
在这里插入图片描述
在这里插入图片描述
经过变换得到递推方程
在这里插入图片描述
在下图中有一个简单的图形解释。外推只是在选择在估计值xi处与函数相切。这种方法的新特点是需要计算函数的导数,有时候求导数是很困难的。然而,对于简单的代数表达式,如方程上面方程,微分很容易求得。
在这里插入图片描述
这种方法往往具有良好的收敛性,根据之前的经验,牛顿-拉夫森方法的收敛条件为在根附近
在这里插入图片描述

在这里插入图片描述

可以看出,如果f(x)变大或者f

  • 2
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
学习人工智能,机器学习都离不开数学基础和编程知识。无论你是数据科学的初学者还是已经从事人工智能开发的有经验人员,这门课都适合于你。为什么这么说?首先人工智能和机器学习本质上就是算法,而算法就是数学及统计学以及编程的结合。当前市场上有许多开源的软件包如SKLEARN确实可以帮助没经验的或缺乏数学或算法基础的人实现机器学习模型及预测,但这些工具无法使你真正懂得算法的本质或来源,或者无法使你在不同场合下灵活运用及改进算法。记住,在实际工作中找到适合应用场景的解决方案是最难但是最重要的。但这离不开数学基础和算法理解。比如,线性回归是一类普遍的机器学习算法,所有的机器学习软件都有现成的方法实现模型,但如果在训练数据中加入几条新数据,那么新建立的模型和原来的模型有和联系或不同?再比如,为什么深度神经网络中的Sigmoid函数一般只用到输出层?神经网络的向后传播理论如何与泰勒展开和复合函数的偏导数联系在一起?人工智能中推荐系统和文字向量如何与矩阵的奇异分解以及特征向量联系?模型中对标签进行数据变换如何影响预测值?所有这些问题的答案,你都可以从本课中找到线索。本课系统地讲述了有关人工智能,机器学习背后的数学知识。特别指出,微积分和代数知识是本课的核心。统计学基础被安排在另外的课程中。除此之外,我在每一章节或主要知识点后都安排了各类程序以解释和回顾所学到的东西。最后要提到的是,这不是一门工程项目实践课。但我会另外专门安排有关人工智能,机器学习的实践课程

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深渊潜航

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值