机器学习常用模型-线性回归模型详解(简单易懂)

机器学习

线性回归模型是机器学习常用模型之一,机器学习的本质就是以数据为驱动,自主的从数据中寻找规律的方法,机器学习有如下特点:

  • 更少的人为假设和定义
  • 更灵活的应用
  • 更高的准确度

常见的机器学习方法包括非监督式学习监督式学习半监督式学习强化学习优化

回归

根据已有的数据建立因变量Y与自变量X定量(函数)关系的模型
y = f ( x 1 , x 2 , . . . x n ) y = f(x_{1},x_{2},...x_{n}) y=f(x1,x2,...xn)

线性回归模型函数关系: y = a x + b y=ax+b y=ax+b

非线性回归模型函数关系: y = a x 2 + b x + c y=ax^{2}+bx+c y=ax2+bx+c

回归的应用例子:

  • 在同一城区根据房屋面积预测房价
  • 根据人均GDP预测人均寿命

线性回归模型

在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数,线性回归模型函数关系: y = a x + b y=ax+b y=ax+b

线性回归是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。这是因为线性依赖于其未知参数的模型比非线性依赖于其未知参数的模型更容易拟合,而且产生的估计的统计特性也更容易确定。

线性回归模型求解方法

1.最小二乘法

最小二乘法本质是最小化均方误差,其只适用于线性回归模型求解

均方误差 L o s s = ∑ ( y ‾ − y ) 2 Loss=\sum(\overline{y}-y)^2 Loss=(yy)2,其中 y ‾ = a x + b \overline{y}=ax+b y=ax+b

分别令 ∂ L o s s ∂ a = 0 \frac {\partial Loss}{\partial a}=0 aLoss=0 ∂ L o s s ∂ b = 0 \frac {\partial Loss}{\partial b}=0 bLoss=0

求解参数 a a a b b b

2.梯度下降法

梯度下降法对于回归模型求解具有普适性

损失函数 g ( a , b ) = 1 2 n ∑ ( y ‾ − y ) 2 g(a,b)=\frac {1}{2n}\sum(\overline{y}-y)^2 g(a,b)=2n1(yy)2,其中 y ‾ = a x + b \overline{y}=ax+b y=ax+b

搜索方法: J = f ( p ) J=f(p) J=f(p) = > => => p i + 1 = p i − a ∂ f ( p i ) ∂ p i p_{i+1} =p_{i}-a\frac {\partial f(p_{i})}{\partial p_{i}} pi+1=piapif(pi),其中a为学习速率,通常设置为0.001-0.1

通过多次迭代求得符合条件的a和b

a n e w = a o l d − a ∂ g ( a , b ) ∂ a a_{new} =a_{old}-a\frac {\partial g(a,b)}{\partial a} anew=aoldaag(a,b)
b n e w = b o l d − a ∂ g ( a , b ) ) ∂ b b_{new} =b_{old}-a\frac {\partial g(a,b))}{\partial b} bnew=boldabg(a,b))

项目实战

Python建立多因子线性回归模型预测房价见文章:https://blog.csdn.net/weixin_43308610/article/details/123359324

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值