特征选择

特征工程:https://blog.csdn.net/weixin_39910711/article/details/80233161

目录

1 概念

2 特征选择过程

2.1 搜索起点和方向

 2.2 搜索策略

2.2.1 穷举式搜索(全局最优搜索策略)

2.2.2 序列搜索(启发式搜索策略)

2.2.3 随机搜索

2.3 特征评估函数

2.3.1 过滤式(Filter) 评价策略的特征选择方法

2.3.2 封装式(Wrapper) 评价策略的特征选择方法

2.4 停止准则


1 概念

       特征选择( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ),或属性选择( Attribute Selection )。是指从已有的M个特征(Feature)中选择N个特征使得系统的特定指标最优化,是从原始特征中选择出一些最有效特征以降低数据集维度的过程,是提高学习算法性能的一个重要手段,也是模式识别中关键的数据预处理步骤。对于一个学习算法来说,好的学习样本是训练模型的关键

        此外,需要区分特征选择特征提取特征提取 ( Feature extraction )是指利用已有的特征计算出一个抽象程度更高的特征集,也指计算得到某个特征的算法。

2 特征选择过程

        

        从特征选择的基本框架可以看出, 特征选择方法中有4 个基本步骤: 候选特征子集的生成(搜索策略)子集评价准则停止准则验证方法。 目前对特征选择方法的研究主要集中于搜索策略评价准则, 因而, 一般从搜索策略和评价准则两个角度对特征选择方法进行分类。

特征选择的一般过程:

   (1)产生过程( Generation Procedure )

   产生过程是搜索特征子集的过程,负责为评价函数提供特征子集。

   (2)评价函数( Evaluation Function )

   评价函数是评价一个特征子集好坏程度的一个准则。

   (3)停止准则( Stopping Criterion )

   停止准则是与评价函数相关的,一般是一个阈值,当评价函数值达到这个阈值后就可停止搜索。

   (4)验证过程( Validation Procedure )

   在验证数据集上验证选出来的特征子集的有效性。

       一般特征选择算法必须确定以下4 个要素:1)搜索起点和方向;2)搜索策略;3)特征评估函数;4)停止准则。

2.1 搜索起点和方向

       搜索起点是算法开始搜索的状态点,搜索方向是指评价的特征子集产生的次序。搜索的起点搜索方向是相关的,它们共同决定搜索策略。一般的,根据不同的搜索起点和方向,有以下4 种情况:

1)前向搜索: 搜索起点是空集S,依据某种评价标准,随着搜索的进行,从未被包含在S 里的特征集中选择最佳的特征不断加入S。

2)后向搜索: 搜索起点是全集S,依据某种评价标准不断从S 中剔除最不重要的特征,直到达到某种停止标准。

3)双向搜索: 双向搜索同时从前后两个方向开始搜索。一般搜索到特征子集空间的中部时,需要评价的子集将会急剧增加。当使用单向搜索时,如果搜索要通过子集空间的中部就会消耗掉大量的搜索时间,所以双向搜索是比较常用的搜索方法

4)随机搜索: 随机搜索从任意的起点开始,对特征的增加和删除也有一定的随机性。

 2.2 搜索策略

        假设原始特征集中有n个特征(也称输入变量),那么存在 2^n-1 个可能的非空特征子集。搜索策略就是为了从包含 2^n-1 个候选解的搜索空间中寻找最优特征子集而采取的搜索方法。搜索策略可大致分为以下3 类:

2.2.1 穷举式搜索(全局最优搜索策略)

        它可以搜索到每个特征子集。缺点是它会带来巨大的计算开销,尤其当特征数较大时,计算时间很长。分支定界法(Branch and Bound, BB)通过剪枝处理缩短搜索时间。存在的问题: 很难确定优化特征子集的数目; 满足单调性的可分性判据难以设计; 处理高维多类问题时, 算法的时间复杂度较高. 因此, 虽然全局最优搜索策略能得到最优解, 但因为诸多因素限制, 无法被广泛应用。

2.2.2 序列搜索(启发式搜索策略)

        它避免了简单的穷举式搜索,在搜索过程中依据某种次序不断向当前特征子集中添加或剔除特征,从而获得优化特征子集。比较典型的序列搜索算法如:前向后向搜索、浮动搜索、双向搜索、序列向前和序列向后算法等。序列搜索算法较容易实现,计算复杂度相对较小,但容易陷入局部最优。

        这类特征选择方法主要有: 单独最优特征组合序列前向选择方法(SFS)广义序列前向选择方法(GSFS)序列后向选择方法(SBS)广义序列后向选择方法(GSBS),增l去r 选择方法广义增l去r选择方法浮动搜索方法。这类方法易于实现且快速, 它的搜索空间是O(N^2)。一般认为采用浮动广义后向选择方法(FGSBS) 是较为有利于实际应用的一种特征选择搜索策略,它既考虑到特征之间的统计相关性, 又用浮动方法保证算法运行的快速稳定性。

       存在的问题是: 启发式搜索策略虽然效率高, 但是它以牺牲全局最优为代价.

2.2.3 随机搜索

       由随机产生的某个候选特征子集开始,依照一定的启发式信息和规则逐步逼近全局最优解。在计算过程中把特征选择问题与遗传算法(Genetic Algorithm, GA)、模拟退火算法(SimulatedAnnealing, SA)、粒子群算法(Particl Swarm Optimization,PSO)和免疫算法(Immune Algorithm, IA)等, 或者仅仅是一个随机重采样过程结合起来, 以概率推理采样过程作为算法的基础, 基于对分类估计的有效性, 在算法运行中对每个特征赋予一定的权重; 然后根据用户所定义的或自适应的阈值来对特征重要性进行评价。当特征所对应的权重超出了这个阈值, 它便被选中作为重要的特征来训练分类器。

       Relief 系列算法即是一种典型的根据权重选择特征的随机搜索方法, 它能有效地去掉无关特征, 但不能去除冗余, 而且只能用于两类分类。随机方法可以细分为完全随机方法概率随机方法两种。虽然搜索空间仍为O(2^N), 但是可以通过设置最大迭代次数限制搜索空间小于O(2N). 例如遗传算法, 由于采用了启发式搜索策略, 它的搜索空间远远小于O(2^N)。

       存在的问题: 具有较高的不确定性, 只有当总循环次数较大时,才可能找到较好的结果。在随机搜索策略中,可能需对一些参数进行设置,参数选择的合适与否对最终结果的好坏起着很大的作用. 因此, 参数选择是一个关键步骤。

总结:每种搜索策略都有各自的优缺点, 在实际应用过程中, 可以根据具体环境和准则函数来寻找一个最佳的平衡点。例如,如果特征数较少,可采用全局最优搜索策略;若不要求全局最优,但要求计算速度快,则可采用启发式策略;若需要高性能的子集,而不介意计算时间,则可采用随机搜索策略

2.3 特征评估函数

         评价标准在特征选择过程中扮演着重要的角色,它是特征选择的依据。评价标准可以分为两种:一种是用于单独地衡量每个特征的预测能力的评价标准;另一种是用于评价某个特征子集整体预测性能的评价标准。特征选择方法依据是否独立于后续的学习算法,可分为过滤式(Filter)封装式(Wrapper)两种。

         在Filte方法中,与后续学习算法无关,一般不依赖具体的学习算法来评价特征子集,而是借鉴统计学、信息论等多门学科的思想,根据数据集的内在特性来评价每个特征的预测能力,从而找出排序较优的若干个特征组成特征子集。通常,此类方法认为最优特征子集是由若干个预测能力较强的特征组成的,速度快, 但评估与后续学习算法的性能偏差较大。相反,在Wrapper 方法中,用后续的学习算法嵌入到特征选择过程中,通过测试特征子集在此算法上的预测性能来决定它的优劣,而极少关注特征子集中每个特征的预测性能如何,偏差小计算量大不适合大数据集。因此,第二种评价标准并不要求最优特征子集中的每个特征都是优秀的。

https://blog.csdn.net/weixin_39910711/article/details/80233161

2.3.1 过滤式(Filter) 评价策略的特征选择方法

       Filter 特征选择方法一般使用评价准则来增强特征与类的相关性, 削减特征之间的相关性. 可将评价函数分成4 类: 距离度量信息度量依赖性度量以及一致性度量.。

2.3.2 封装式(Wrapper) 评价策略的特征选择方法

        除了上述4 种准则, 分类错误率也是一种衡量所选特征子集优劣的度量标准。Wrapper 模型将特征选择算法作为学习算法的一个组成部分,并且直接使用分类性能作为特征重要性程度的评价标准。它的依据是选择子集最终被用于构造分类模型。因此,若在构造分类模型时,直接采用那些能取得较高分类性能的特征即可,从而获得一个分类性能较高的分类模型。该方法在速度上要比Filter 方法慢,但是它所选择的优化特征子集的规模相对要小得多,非常有利于关键特征的辨识;同时它的准确率比较高,但泛化能力比较差时间复杂度较高

        目前此类方法是特征选择研究领域的热点,相关文献也很多。例如, Hsu 等人用决策树来进行特征选择,采用遗传算法来寻找使得决策树分类错误率最小的一组特征子集。Chiang等人将Fisher 判别分析与遗传算法相结合,用来在化工故障过程中辨识关键变量, 取得了不错的效果。Guyon 等人使用支持向量机的分类性能衡量特征的重要性程度, 并最终构造一个分类性能较高的分类器。Krzysztof提出了一种基于相互关系的双重策略的Wrapper 特征选择方法。叶吉祥等人提出了一种快速的Wrapper 特征选择方法FFSR(fast featuresubset ranking), 以特征子集作为评价单位, 以子集收敛能力作为评价标准。戴平等人利用SVM线性核与多项式核函数的特性, 结合二进制PSO 方法, 提出了一种基于SVM的快速特征选择方法。

        综上所述, Filter 和Wrapper 特征选择方法各有优缺点. 将启发式搜索策略分类器性能评价准则相结合来评价所选的特征, 相对于使用随机搜索策略的方法, 节约了不少时间。Filter 和Wrapper 是两种互补的模式, 两者可以结合。

        混合特征选择过程一般由两个阶段组成:①首先使用Filter 方法初步剔除大部分无关或噪声特征,只保留少量特征,从而有效地减小后续搜索过程的规模。②第2 阶段将剩余的特征连同样本数据作为输入参数传递给Wrapper 选择方法,以进一步优化选择重要的特征。例如,有文献采用混合模型选择特征子集,先使用互信息度量标准和bootstrap 技术获取前k个重要的特征,然后再使用支持向量机构造分类器。

2.4 停止准则

        停止标准决定什么时候停止搜索, 即结束算法的执行。它与评价准则搜索算法的选择以及具体应用需求均有关联。常见的停止准则一般有:

1)执行时间:即事先规定了算法执行的时间,当到达所制定的时间就强制终止算法运行,并输出结果。

2)评价次数:即制定算法需要运算多少次,通常用于规定随机搜索的次数, 尤其当算法运行的结果不稳定的情况下,通过若干次的运行结果找出其中稳定的因素。

3) 设置阈值:一般是给算法的目标值设置一个评价阈值,通过目标与该阈值的比较决定算法停止与否。不过,要设置一个合适的阈值并不容易,需要对算法的性能有十分清晰的了解。否则,设置阈值过高会使得算法陷入死循环,阈值过小则达不到预定的性能指标。

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值