python 回归去掉共线性_SPSS方法|岭回归分析

本文介绍了在存在多重共线性时如何使用Python的岭回归分析方法。内容包括岭回归的一般步骤,如变量中心化、确定k值、岭迹图和方差膨胀因子法的应用,以及如何在SPSS中进行操作。案例分析部分展示了如何对儿童智力测试数据进行多重线性回归模型的构建,并解释了由于共线性导致的模型不稳定性以及岭回归的优势。
摘要由CSDN通过智能技术生成

前言

岭回归:岭回归分析是在构建多重线性回归模型时, 对基于“最小二乘原理”推导出的估计回归系数的计算公式作一下校正,使回归系数更稳定。

当自变量之间存在较强的多重共线性时,求得的多重线性回归模型很不稳定; 尤其是某些自变量回归系数的正负号与实际问题的专业背景不吻合时,岭回归分析可以很好地解决这一问题。

1 实施的一般步骤

1 岭回归分析通常要先对 X 变量作中心化和标准化处理, 以使不同自变量处于同样数量级上而便于比较。

2确定 k 值

① 岭迹图

岭迹法主要是通过将 β( k) 的分量 βi( k) 的岭迹画在同一幅图上, 从图中选择尽可能小的 k 值, 使得各回归系数的岭估计大体稳定, 即各分量在图上的岭迹曲线趋于平行于X 轴。

选择 k 值的一般原则主要有: ①各回归系数的岭估计基本稳定; ②用最小二乘估计时符号不合理的回归系数, 其岭估计的符号将变得合理; ③回归系数的大小要与实际相符, 即从专业上讲对因变量影响较大的自变量其系数的绝对值也较大; ④均方误差增大不太多。

②方差膨胀因子法

方差膨胀因子 cjj 度量了多重共线性的严重程度, 一般当 cjj > 10 时, 模型就有严重的多重共线性。

3根据岭迹图进行变量筛选及重新确定k值

把岭迹应用于回归分析中自变量的选择,其基本原则为:

(1)去掉岭回归系数比较稳定且绝对值比较小的自变量。这里岭回归系数可以直接比较大小,因为设计阵 X 是假定已经中心标准化了的。

(2)去掉岭回归系数不稳定但随着 k 值的增加迅速趋于零的自变量。

(3)去掉一个或若干个具有不稳定岭回归系数的自变量。如果

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值