【含解析】在R语言中执行步进式模型选择,基于AIC(赤池信息准则)

本文介绍了如何在R语言中使用step函数进行基于AIC的模型选择,包括线性模型和广义线性模型的向前选择、向后删除和双向选择。通过实例演示了如何逐步优化模型,强调了步进选择的局限性和结合其他方法的重要性。
摘要由CSDN通过智能技术生成

在R语言中,进行基于AIC(赤池信息准则)的步进式模型选择,使用step函数。这个函数可以用于对线性模型(例如通过lm函数创建的模型)或广义线性模型(例如通过glm函数创建的模型)进行向前选择、向后删除或双向选择。
它从一个模型开始,然后通过添加或删除变量来寻找一个更好的模型,基于AIC(赤池信息准则)或其他指标。

1. 安装并加载必要的包

# 如果没有安装,可以通过以下命令安装
# install.packages("stats")
library(stats)

2. 创建一个初始模型

创建一个包含你感兴趣的所有变量的初始模型。这可以是一个全模型,包含所有候选预测变量,或者是仅包含一个截距的简化模型,具体取决于你想进行的是向前选择还是向后删除。

# 使用lm(线性模型)或glm(广义线性模型)创建一个初始模型
# 这里使用lm作为示例
initial_model <- lm(Y ~ X1 + X2 + X3, data = your_data)

3. 使用step函数选择模型

调用step函数,它会自动进行模型选择。你可以通过direction参数控制选择的方向:"forward""backward""both"

# 进行步进式模型选择
# direction="both"意味着进行双向(即同时进行向前选择和向后删除)选择
final_model <- step(initial_model, direction = "both")

step函数会评估添加或移除变量对模型AIC的影响,并选择具有最佳(即最小)AIC值的模型。
如果是 "backward"表示采用逐步回归的“向后删除”方法,即从包含所有候选预测变量的模型开始,逐步删除不显著的预测变量,每次迭代删除对模型贡献最小(即AIC改善最小)的变量,直到所有剩余变量都显著贡献到模型中。

4. 查看最终模型

查看经过选择后的最终模型的详情,包括使用的变量、模型系数、AIC值等。

summary(final_model)

请注意,步进式模型选择虽然是一种方便的自动化模型选择方法,但它也有局限性,例如可能导致过度拟合。因此,最终选择的模型还应通过交叉验证等其他方法进行评估和验证。

backward 分析例子

有这样一个文件nitrate.txt

age no3n pH Na K
0 0.13 4.91 4.36 0.14
0 0.15 5.00 3.91 0.21
0 0.05 5.37 3.98 0.16
0 0.11 5.27 4.24 0.16
0 0.10 6.95 3.84 0.22
10 0.05 4.44 4.32 0.15
14 0.10 4.67 4.65 0.09
14 0.02 5.34 4.89 0.08
15 0.14 5.96 4.36 0.21
16 0.07 4.31 5.10 0.93
19 0.07 4.58 4.91 0.11
24 0.12 5.09 6.19 0.09
27 0.12 5.57 8.05 0.31
28 0.33 5.19 4.15 0.12
29 0.14 4.83 6.10 0.19
31 0.20 5.37 5.32 0.17
32 0.16 4.93 5.39 0.14
37 0.64 4.74 6.67 0.19
40 0.33 5.13 5.42 0.24
44 1.11 4.61 10.42 0.20
51 0.26 4.40 7.95 0.21
53 0.36 4.75 5.99 0.22
53 0.39 5.24 5.92 0.23
53 0.59 5.38 7.20 0.24
55 0.94 4.63 8.77 0.23

先读取文件,做一些基本的处理。

nitrate <- read.csv("nitrate.txt", sep="")
pairs(nitrate[c(2,1,3,4,5)])
nitrate$logno3n <- log(nitrate$no3n)

使用lm函数在nitrate数据集上建立了一个初始线性模型,模型预测变量log(no3n)(即硝酸盐浓度的自然对数)依赖于age(年龄)、K(钾)、Na(钠)和pH。然后,它通过step函数进行了向后步进式模型选择,基于AIC(赤池信息准则)来决定哪些变量应该保留在模型中。

mod <- lm(log(no3n) ~ age + K + Na + pH,data=nitrate)
step(mod, direction="backward")

输出解析如下:


开始时,模型包括所有四个预测变量(age, K, Na, pH),并且具有AIC值为-16.2。
第一步:在第一轮迭代中,step函数尝试移除每个变量,看它对模型AIC的影响。移除K会将AIC值降低至-18.12,这是四种可能移除中最好的结果。因此,K被从模型中移除。

第二步:在接下来的迭代中,现在的模型包括ageNapH。同样,step函数尝试移除每个变量,发现移除pH将AIC值进一步降低至-19.46,因此pH被移除。

第三步:现在的模型只包括ageNastep函数继续尝试移除剩下的变量,发现移除Na可以将AIC值降低至-20.05,因此Na也被移除。

最终模型:最终,只有age保留在模型中,这是基于AIC准则下的最优模型。最终模型的公式为log(no3n) ~ age,并且AIC值为-20.05。这意味着,根据赤池信息准则,模型中只有年龄是解释硝酸盐浓度自然对数变化的重要预测变量。
模型系数:最终模型的系数显示截距为-2.76098,年龄的系数为0.03873。这表示随着年龄的增加,硝酸盐浓度的自然对数预计会轻微增加。

Q&A

Q: 会不会存在移除两个变量后,会比移除一个变量更好的情况?
是的,存在这种可能性。步进式模型选择(无论是向前、向后还是双向步进)通常是一种贪心算法,这意味着它在每一步都做出当前看起来最佳的决策,而不考虑未来可能出现的情况。因此,它可能错过那些在初期不是最优但在移除多个变量后可能导致更优模型的情况。
具体来说,某些变量可能在单独考虑时对模型的AIC影响不大,但如果同时考虑移除它们与其他变量的组合,可能会得到一个具有更低AIC值的模型。步进式选择每次只考虑移除或添加单个变量,因此可能无法识别这种组合效应。
为了解决这个问题,可以考虑以下几种策略:

  1. 全子集选择:这种方法会考虑所有可能的变量组合,并选择AIC、BIC或其他标准最优的模型。虽然这种方法可以找到理论上的最佳模型,但计算成本随着变量数量的增加而显著增加,对于具有大量预测变量的数据集可能不切实际。
  2. 正则化方法:如岭回归(Ridge Regression)和LASSO回归。这些方法通过在损失函数中添加一个惩罚项来约束系数的大小,有助于避免过拟合,并且在某些情况下可以实现变量选择(尤其是LASSO)。
  3. 交叉验证:通过使用交叉验证来评估不同模型的预测性能,可以帮助识别哪个模型在未见数据上表现最好。虽然这不直接解决步进选择可能错过的组合效应问题,但它可以提供一个独立于信息准则的性能评估,有助于验证最终模型的选择。

步进式模型选择可以作为变量选择的有用工具,但重要的是要认识到它的局限性,并考虑其他方法或在最终模型确认前进行额外的验证步骤。

forward 分析例子

代码:

mod1 <- lm(log(no3n) ~ 1,data=nitrate) 
#for forward selection, start with intercept only model (hence ~ 1)
step(mod1, direction="forward", scope = list(lower = ~1, upper = ~age + K + Na + pH))

向前选择是一种逐步增加变量的方法,从最简单的模型开始,然后逐步添加变量以改善模型。在每一步,都会选择能最大程度降低AIC值的变量加入模型中,直到添加任何剩余的变量都不会再显著降低AIC值为止。

mod1 <- lm(log(no3n) ~ 1,data=nitrate) 

这里,lm函数用于在nitrate数据集上创建一个线性模型,该模型仅包含截距(即 ~ 1),不包括任何自变量。这是向前选择开始的地方,即最简单的模型。

step(mod1, direction="forward", scope = list(lower = ~1, upper = ~age + K + Na + pH))

使用step函数进行向前选择。这里的direction="forward"参数指示我们进行的是向前选择。scope参数定义了模型选择的范围:
lower = ~1 表示最简单的模型只包含截距,这是起始点。
upper = ~age + K + Na + pH 定义了包含所有候选预测变量的最复杂模型,即模型变量的上限。
在向前选择的过程中,step函数会从只包含截距的模型开始,然后逐一尝试添加ageKNapH中的每一个变量,每次都选择能够最大程度降低AIC值的变量加入模型。这个过程重复进行,直到添加任何未包含的变量都不会导致AIC值显著下降为止。

向前选择的优点:

计算效率:与全子集选择相比,向前选择需要评估的模型数量较少,因此在变量数量较多时更加高效。
避免过拟合:通过仅添加显著改善模型拟合度的变量,向前选择帮助减少过拟合的风险。

注意事项:

尽管向前选择能够提高计算效率并有助于避免过拟合,但它仍然是一种贪心算法,可能无法找到全局最优的变量组合。
最终模型的选择应结合领域知识和其他统计验证方法(如交叉验证)进行评估和验证。


log(no3n) ~ 1,这是一个只包含截距的模型,不包含任何预测变量。该模型的AIC为-0.75。
后面列出了添加每个候选变量对模型的影响。这包括变量ageNapHK。对于每个变量,输出显示了添加该变量后模型的残差平方和(RSS)和AIC值。


age被选择为第一个添加到模型中的变量,因为它最大程度地减少了AIC(从-0.75降到-20.0527)。添加age后,模型的RSS从22.3991降到了9.5522,这表明添加age变量显著提高了模型的拟合度。RSS衡量的是模型预测值与实际值之间差异的平方和,因此RSS的减少意味着模型预测的准确性有了显著的提升。

在这个例子中,从只有截距的模型(log(no3n) ~ 1),到包含age作为预测变量的模型(log(no3n) ~ age),RSS的大幅降低说明age是一个重要的预测变量,对解释硝酸盐浓度的自然对数(log(no3n))变化起着关键作用。

但是为什么添加了 age 后就停止了呢?这是因为在该步骤之后,尽管还考虑了添加其他变量(NapHK),但它们无法进一步显著降低AIC值。

  • 14
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值