机器学习线性回归_机器学习从零开始系列连载——线性回归

以通用的监督学习为例,基本包含4个部分:

c2f9c3f0aeb33c96b9e824df4d53b958.png

01

偏差与方差

● 在机器学习算法中,偏差是由先验假设的不合理带来的模型误差,高偏差会导致欠拟合:所谓欠拟合是指对特征和标注之间的因果关系学习不到位,导致模型本身没有较好的学到历史经验的现象;

● 方差表征的是模型误差对样本发生一定变化时的敏感度,高方差会导致过拟合:模型对训练样本中的随机噪声也做了拟合学习,导致在未知样本上应用时出现效果较差的现象;

● 机器学习模型的核心之一在于其推广能力,即在未知样本上的表现。

对方差和偏差的一种直观解释

ab6313829a921f9b3d6e53b031823169.png

一个例子,假如我们有预测模型:

efa04ffbb806967f1f26edca102874f3.png

我们希望用f^e(x)估计f(x),如果使用基于square loss 的线性回归,则误差分析如下:

b102a3839b0abda630d9cbbab8b41a4f.png
1aa3234dc19ebce14dea87b36efbf369.png

所以大家可以清楚的看到模型学习过程其实就是对偏差和方差的折中过程。

02

模型原理

标准线性回归通过对自变量的线性组合来预测因变量,组合自变量的权重通过最小化训练集中所有样本的预测平方误差和来得到,原理如下。

● 预测函数

eb44059734a3e3a4f3e2e1640a027505.png

● 参数学习-采用最小二乘法

21603e6036971ed809574826810439d9.png

所有机器学习模型的成立都会有一定的先验假设,线性回归也不例外,它对数据做了以下强假设:

● 自变量相互独立,无多重共线性

● 因变量是自变量的线性加权组合:

70169a66b9c35bfa14d3ae6f3115d806.png

● 所有样本独立同分布(iid),且误差项服从以下分布:

2d337cbe5e56c1f521ad5a8b3fdc03e5.png

最小二乘法与以上假设的关系推导如下:

a50eef6a235d379bbd0a3df1829c8b79.png

使用MLE(极大似然法)估计参数如下:

c21f1ccf02d156c849c47b8c73ab9970.png

线性回归有两个重要变体:

● Lasso Regression:采用L1正则并使用MAP做参数估计

● Ridge Regression:采用L2正则并使用MAP做参数估计

关于正则化及最优化后续会做介绍。

03

损失函数

83c42097857785e9292bec0136506444.png

进一步阅读可参考:https://en.wikipedia.org/wiki/Least_squares

dd0c005bd55fb3ac6910a75a6f806a93.gif


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值