lasso的今世前身

本文回顾了lasso的起源及其在高维统计中的重要性。从传统的选变量方法如Cp统计量、AIC和BIC准则,过渡到岭估计和非负代理,最终详细介绍了lasso及其L1正则化的稀疏性质。通过Lagrangian对偶方法,探讨了lasso的求解过程,包括坐标下降算法和glmnet包的应用。
摘要由CSDN通过智能技术生成

lasso的今世前身

引言
年关将至,少不了写年终总结。自己也绞尽脑汁对研读的统计文献做一个总结。我们来聊聊20年前诞生的lasso。lasso理论文章由统计学家Tibshirani, R在于1996年提出,并获得了里程碑式的影响。简单概述,lasso的目的就是选择合适的自变量。茫茫变量中怎么遇见合适的它。
这里写图片描述

此处说明下我们为什么要进行选变量这个动作?
-变量维数多并且变量之间存在相关关系,所以剔除不重要的变量,选择合适的变量成为了统计学习里面的一个重点。

传统选变量方法

(1). Cp 统计量
数学公式为: Cp=RSSqδ2(n2q)

(2). AIC 准则
数学公式为:AIC= nln(RSSq)+2q

(3). BIC 准则
数学公式: BIC=2ln(RSSq)+ln(n)k

其中 RSSq 是在该模型下的残差平方和,q是模型的变量个数。
R语言中有AIC,BIC函数。

lm1 <- lm(Fertility ~ . , data = swiss)
lm2 <- update(lm1, . ~ . -Examination)
AIC(lm1, lm2)
BIC(lm1, lm2)

注意这些规则只是刻画了用某个模型之后相对“真实模型”的信息损失【因为不知道真正的模型是什么样子,所以训练得到的所有模型都只是真实模型的一个近似模型】。

这些规则理论上是比较漂亮的,但是实际在模型选择中应用起来还是有些困难的,
(1).茫茫变量中这种枚举的方式,计算量太大,典型的NP问题。
(2).通过这种离散的方式选择变量,模型并不稳定。即数据有许变化,模型就会有所改变。
所以上述方法更适合于模型之间的比较。

岭估计

针对变量之间存在相关性,引入岭的概念,使得 <

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值