逐步回归选取特征及GAM模型的使用==college数据集(统计学习导论)

本文介绍了统计学习导论习题中关于逐步回归特征选择的方法,阐述了逐步回归过程并提供了Python实现。接着探讨了广义相加模型(GAM),解释了GAM的工作原理,展示了其在数据集上的应用,包括模型建立、评估和参数调优。部分依赖图作为GAM的解释工具,帮助理解各特征与目标变量的关系。通过对光滑度的调整,平衡模型的复杂性和解释性。
摘要由CSDN通过智能技术生成

统计学习导论习题 chapter 7 EX-10

Author - - SIHENG HUANG
Attention:**切勿直接copy入作业 **

问题复现


数据集下载链接:college数据集

【问题分析一】 逐步回归选取特征

逐步回归分析的名字里虽然带了“回归”,但实际上是一个特征选择方法。如图,是与逐步回归分析相关的一些概念及其关系。

Resource — 知乎

resourse--zhihu

基于逐步回归分析的特征选择

逐步回归分析的过程如下图,

主要的步骤包括:
流程

(1) 从原始特征集合中,不放回地随机选择一个特征;

(2) 将这个特征与特征子集合起来,建回归模型,并进行统计检验;

(3) 如果得到一个显著的模型,说明这个特征是有用的,将这个特征收录到特征子集中;如果模型不显著,说明这个特征没用,需要删掉。

遍历完原始特征集合,我们就得到了一个优质的特征子集,以及一个显著的回归模型。

逐步回归就这么一点内容:它首先是一个特征选择的策略,然后还有建立回归模型的功能。

逐步回归分析的python实现

逐步向前回归算法的python实现

def forward_stepwise_selection(data,target):
    
    total_features = [[]]
    score_dict = {
   }
    remaining_features = [col for col in data.columns if not col == target]
    
    for i in range(1,len(data.columns)):
        best_score = 0;best_feature = None
        for feature in remaining_features:

            X = total_features[i-1] + [feature]
            model = LinearRegression().fit(data[X],data[target])
            score = r2_score(data[target],model.predict(data[X]))

            if score > best_score:
                best_score = score
                best_feature = feature
        
        total_features.append(total_features[i-1] + [best_feature])
        remaining_features.remove(best_feature)
        score_dict[i] 
  • 3
    点赞
  • 32
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值