特征选择与稀疏学习

特征选择是数据预处理的关键步骤,有助于减少过拟合和降低学习难度。本文介绍了过滤式、包裹式和嵌入式特征选择方法,重点讨论了LVW(拉斯维加斯包裹式)算法以及L1正则化的嵌入式选择。此外,还探讨了稀疏表示、字典学习和压缩感知在信号处理中的应用。
摘要由CSDN通过智能技术生成

1.子集搜索与评价
对当前学习任务有用的属性称为"相关特征",没什么用的属性称为"无关特征"。从给定的特征集合中选择出相关特征子集的过程,称为"特征选择" (feature selection).
将特征子集搜索机制与子集评价机制相结合,即可得到特征选择方法。例如将前向搜索与信息熵相结合,这显然与决策树算法非常相似。
特征选择是一个重要的数据预处理过程,进行特征选择的原因如下:
(1)减少特征数量、降维,使模型泛化能力更强,减少过拟合;
(2)去除不相关特征,降低学习难度。
常见的特征选择方法大致可分为三类:过滤式、包裹式和嵌入式。

1.2 过滤式选择
过滤式方法先对数据集进行特征选择,然后再训练学习器。特征选择过程与后续学习器无关,这相当于先对初始特征进行“过滤”,再用过滤后的特征训练模型。
在这里插入图片描述
1.3 包裹式选择
包裹式从初始特征集合中不断的选择特征子集,训练学习器,根据学习器的性能来对子集进行评价,直到选择出最佳的子集。从最终学习器性能来看,包裹式特征选择比过滤式特征选择更好。但另一方面, 由于在特征选择过程中需多次训练学习器,因此包裹式特征选择的计算开销通常比过滤式特征边择大得多。
LVW (Las Vegas Wrapper)是一个典型的包裹式特征选择方法.它在拉斯维加斯方法(Las Vegas method)框架下使用随机策略来进行子集

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值