xgboost回归预测模型_偏最小二乘回归分析法 从预测角度对所建立的回归模型进行比较...

本文探讨了在数据预测中,偏最小二乘回归(PLS)和XGBoost回归模型的使用。PLS是一种适用于变量多且相关性强、样本量较小的情况的建模方法,它结合了主成分分析和线性回归的特点。通过提取成分并建立回归模型,PLS能提供更丰富的信息。文章介绍了PLS的建模步骤,包括最大化相关性和交叉有效性检验。XGBoost回归预测模型则在现代机器学习中广泛应用,以其高效和准确预测能力著称。文章旨在从预测角度对比这两种方法的优劣。
摘要由CSDN通过智能技术生成
1ef2916f1ff99fd27ac40ede43c16d43.gif

在实际问题中,经常遇到需要研究两组多重相关变量间的相互依赖关系,并研究用一组变量(常称为自变量或预测变量)去预测另一组变量(常称为因变量或响应变量), 除了最小二乘准则下的经典多元线性回归分析(MLR),提取自变量组主成分的主成分回归分析(PCR)等方法外,还有近年发展起来的偏最小二乘(PLS)回归方法。 

偏最小二乘回归提供一种多对多线性回归建模的方法,特别当两组变量的个数很多,且都存在多重相关性,而观测数据的数量(样本量)又较少时,用偏最小二乘回归建立的模型具有传统的经典回归分析等方法所没有的优点。 偏最小二乘回归分析在建模过程中集中了主成分分析,典型相关分析和线性回归分析方法的特点,因此在分析结果中,除了可以提供一个更为合理的回归模型外,还可以同时完成一些类似于主成分分析和典型相关分析的研究内容,提供更丰富、深入的一些信息。

今天我们学习偏最小二乘回归分析的建模方法;通过例子从预测角度对所建立的回归模型进行比较。

偏最小二乘回归

考虑 p 个变量 y1 , y2 ,... , yp  " 与 m 个自变量  x1 , x2 ,... , xm " 的建模问题。

偏最小二乘回归的基本作法是首先在自变量集中提出第一成分 t1 ( t1 是 x1 ,... , xm" 的线性组合,且尽可能多地提取原自变量集中的变异信息);同时在因变量集中也提取第一成分u1 , 并要求 t1 与 u1 相关程度达到最大。然后建立因变量  y1, ..., yp与 t1的回归,如果回归方程已达到满意的精度,则算法中止。否则继续第二对成分的提取,直到能达到满意的精度为止。若最终对自变量集提取 r 个成分 t1 ,t2 ,... ,tr ,偏最小二乘回归将通过建立 y1 ,... , yp 与 t1 ,t2 ,... ,tr  的回归式,然后再表示为 y1 ,... , yp " 与原自变量的回归方程式, 即偏最小二乘回归方程式。

为了方便起见,不妨假定 p 个因变量 y1 ,... , yp  与 m 个自变量 x1 ,... , xm  均为标准化变量。因变量组和自变量组的n 次标准化观测数据阵分别记为

50aadeefbb3ef03c12be6a864e9b3f9c.png

偏最小二乘回归分析建模的具体步骤如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值