最小二乘法&梯度下降法区别及python实现

本文介绍了最小二乘法和梯度下降法在求解优化问题中的应用。最小二乘法适用于线性回归,通过求导找到使残差平方和最小的参数,可用代数或矩阵方法求解。梯度下降法则通过迭代寻找损失函数的最小值,适用于线性和非线性问题。文章还讨论了批量、随机和小批量梯度下降的优缺点,并指出损失函数的峰态影响梯度下降是否能找到全局最优解。
摘要由CSDN通过智能技术生成
公众号: 数据小斑马,关注即可获得价值1000元的数据分析学习资料

神经网络系列目录
神经网络①——神经网络原理介绍(BP算法)
神经网络②——python实现神经网络
神经网络③——sklearn参数介绍及应用
神经网络实战④——主播综合评分回归预测实战

一、最小二乘法

公众号: 数据小斑马,关注即可获得价值1000元的数据分析学习资料

先来解释几个概念
拟合函数/估值函数:在回归问题中,当给定一组样本时,找到一个最佳的函数来匹配所有的样本,这个函数就是拟合函数/估值函数
损失函数:判断函数拟合的好不好的函数,损失函数越小,说明拟合值与真实值越接近,误差越小,就越能用拟合函数来进行预测,损失函数的标准有以下几种:

a) 残差和: 指拟合值与真实值的差的和,有正有负会存在抵消的情况,不能反应真实误差
b) 残差绝对值和:这个可以解决残差和有正有负的问题,但是绝对值在后续的求导会异常麻烦
c) 残差的平方和:这就是最小二乘法,通过残差平方和求解极值,找到最佳的拟合函数

如何对损失函数求解呢?
① 代数求导法
假设拟合函数为一元线性函数:
在这里插入图片描述
其中ei为样本(Xi, Yi)的误差
平方和损失函数:
在这里插入图片描述
则通过Q最小确定这条直线,解决办法:将两个参数作为未知数,分别求偏导,代入所有的样本值,当偏导=0时,就求得极值

  • 4
    点赞
  • 57
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
梯度下降法最小二乘法是常用于求解参数优化的方法。在python,我们可以结合这两种方法来实现: 首先,我们需要导入numpy库来处理矩阵运算,以及matplotlib库用于绘图展示结果。 接下来,我们需要定义一个梯度下降函数来更新参数。假设我们有一个损失函数J,我们的目标是找到最小化损失函数的参数。梯度下降法的步骤如下: 1.初始化参数:使用随机值或者零初始化参数向量。 2.计算损失函数梯度:计算损失函数J对参数的偏导数,即梯度。 3.更新参数:使用学习率乘以梯度,并减去更新参数。 我们还需要定义一个最小二乘法函数,用于最小化误差方程。最小二乘法的步骤如下: 1.建立线性模型:假设我们的目标是拟合一个线性模型,我们需要定义线性模型的参数向量。 2.计算预测值:使用线性模型的参数,计算出预测值。 3.计算误差:求解预测值和真实值之间的误差。 4.最小化误差:对误差进行最小二乘法优化,求得最优参数值。 最后,我们可以使用这两个函数来进行模型的训练和预测。首先,我们需要载入数据集和设置相关参数,然后使用梯度下降法更新参数,最后使用最小二乘法函数来获得最优参数,以及对新样本的预测值。 这个是简单的梯度下降法最小二乘法结合python实现的思路,具体的实现过程可以根据实际情况进行调整和改进。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值