机器学习理论篇之线性回归(python实现)

本文深入探讨了线性回归模型,包括矩阵化的表示形式和损失函数。介绍了最小二乘法和两种求解最小损失函数的策略:矩阵满秩时的正规方程和矩阵不满秩时的梯度下降法。还强调了特征缩放的重要性,并讨论了模型评估方法,通过绘制学习曲线检查算法效果。最后,展示了使用Python实现线性回归解决店铺利润预测问题。
摘要由CSDN通过智能技术生成

1. 线性回归模型:(M个样本,n个特征值,一个bias)


矩阵化表现形式:


注意这里采用的XW的向量表示形式,如果要采用W(T)X的形式X矩阵的向量表现形式就不一样了。

其实机器学习的目的就是要求出最优的W参数值,因此我们需要用到损失函数。

2.损失函数(cost):

  最小二乘法表示损失函数:

      何为最小二乘法,其实很简单。我们有很多的给定点,这时候我们需要找出一条线去拟合它,那么我先假设这个线的方程,然后把数据点代入假设的方程得到观测值,求使得实际值与观测值相减的平方和最小的参数。

M是样本数量,就是我们训练样本的数量。如果每一个样本单独求损失函数的话,最后要求和才是整个模型的损失函数

如果是用向量矩阵求损失函数的话,所有样本全部代入,直接求出来的是一个值,就是模型的损失函数。

注意:上面的两个大小写y实际上是同一个y,都是样本真实值的向量,是M×1维的向量矩阵

分析一下:向量矩阵的维度:

X 是M×(n+1)维

W是(n+1)×1维

XW是 M×1维

y是M×1维

我们的目的就是要使损失函数最小,然后求出损失函数最小的W,这时候我们求最小损失函数有两种情况:

3.学习过程:求出损失函数最小的W

 a.矩阵满秩时求解

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值