最小角回归(Least Angle Regression)

最小角回归是一种逐步选择特征的模型,每次选取与期望输出相关性最大的特征。它通过计算相关性和选择前进方向来构建从原点到期望输出的路径。在每一步中,选取与残值相关性最大且未被选中的特征,确保前进路径最小化所有特征的角度。
摘要由CSDN通过智能技术生成

数学公式显示有问题,更好的版本请点击 最小角回归

背景知识

最小角回归和模型选择比较像,是一个逐步的过程,每一步都选择一个相关性最大的特征,总的运算步数只和特征的数目有关,和训练集的大小无关。最小角回归训练时的输入为特征矩阵  X={ X1,X2,...,XP} ,和期输出向量 Y={ y1,y2,...,yN} Xi  是长度为 N 的矩阵, N 表示训练集的大小, P 则是特征的数目。还有一点需要注意的是,向量 Xi  和  Y  都是正则化之后的向量,即它们的元素的均值为0,且每个向量的长度都是1,这样做的目的是为了后面计算相关性以及角度的方便。

相关性

相关性一般是用来衡量两个向量之间的相关程度,通常采用相关性公式进行计算,其中A,B为向量:

corr==Cov(A,B)Var(A)Var(B)E[(AA¯)(BB¯)]E[(AA¯)2]E[(BB¯)2]

corr的绝对值越大,表示A,B的相关性越大,反之则越小。corr的符号则表示这两个向量是正相关还是负相关。由于最小回归的训练数据是经过正则化的,即 A¯=B¯=0 |A|=|B|=1 ,所以上面的计算公式可以进行简化。

corr===E(AB)E(A2)E(B2)E(AB)11E(AB)

在最小角回归中, E(AB)=ABn ,其中n是向量A或B中元素的个数,因而n是定值,所以为了方便计算,在计算向量的相关性时,我们只需要计算 AB 即可。为了计算每个特征和期望输出的相关性,我们需要计算每个 Xi  与  Y 的相关性,这种情况下,我们可以采用矩阵和向量的乘法来进行运算,这里X是

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值