线性回归LR和局部加权线性回归LWLR算法简介

本文介绍了线性回归的基本概念,包括最小二乘法和正则化的应用,如岭回归和lasso。接着讲解了局部加权线性回归(LWLR),该方法根据样本距离赋予不同权重,以降低预测误差。LWLR采用高斯核函数,通过调整波长参数k控制拟合程度,过大可能导致欠拟合,过小可能引起过拟合。对于大规模样本,可以通过kd树等方法优化计算效率。
摘要由CSDN通过智能技术生成

1.线性回归(LinearRegression)


        回归模型可以使用一个回归方程(regressionequation)来描述,其中求解回归系数(regression weights)的过程即称为回归。

        线性回归使用最小二乘法(ordinaryleast squares),即基于均方误差最小化模型的求解:


用矩阵表示可以写成


对sita求偏导可得


令偏导等于零,解出sita的最优估计解为:

 

则预测输出为:


        然而,现实任务中XTX往往不满秩,如样例的特征数目大,甚至超过样例数时,此时可解出多组sita使得均方误差最小化。当XTX不满秩时,常见的做法是引入正则化(regularization)项,将不适定的问题转化为适定问题,如岭回归(ridge regression)和lasso算法等。

        参数学习算法(Parametriclearning algorithm)是指有固定数目的参数用于进行数据拟合的算法,如线性回归有固定参数集合sita;非参数学习算法(Non-parame

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值