最小二乘法学习总结;线性预测器预测推导

本文总结了最小二乘法、梯度下降法、牛顿法和高斯牛顿法,并详细介绍了线性预测器的预测推导过程,通过实例展示了如何运用这些方法来优化模型参数。
摘要由CSDN通过智能技术生成

1.最小二乘法、梯度下降法、牛顿法和高斯牛顿法的学习总结

1.最小二乘法
最小二乘法的原理,形式如下式:目标函数=∑(观测值−理论值)的平方
观测值就是我们的多组样本,理论值就是我们的假设拟合函数。目标函数也就是在机器学习中常说的损失函数,我们的目标是得到使目标函数最小化时候的拟合函数的模型。

举一个最简单的线性回归的简单例子,比如我们有m个只有一个特征的样本: 
(x(1),y(1)),(x(2),y(2),…(x(m),y(m))(x(1),y(1)),(x(2),y(2),…(x(m),y(m))

样本采用下面的拟合函数:     hθ(x)=θ0+θ1x
这样我们的样本有一个特征x,对应的拟合函数有两个参数θ0和θ1需要求出。    
我们的目标函数为:    
J(θ0,θ1)=∑ i=1 m (y(i)−hθ(x(i))2=∑ i=1 m (y(i)−θ0−θ1x(i))2
最小二乘法便可以求出使J(θ0,θ1)J(θ0,θ1)最小时的θ0和θ1θ0和θ1,这样拟合函数就得出了。

2.梯度下降法
是一种寻找目标函数最小化的方法。
在这里插入图片描述

3.牛顿法
牛顿法的基本思想是利用迭代点处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似,然后把二次模型的极小点作为新的迭代点,并不断重复这一过程,直至求得满足精度的近似极小值。牛顿法的速度相当

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值