![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
特征选择
搬砖老头
仰望星空,脚踏实地!天道酬勤,机会总是留给有准备的人!
展开
-
特征选择
特征选择是一个重要的数据预处理过程,获得数据之后要先进行特征选择然后再训练模型。主要作用:1、降维 2、去除不相关特征。 特征选择方法包含:子集搜索和子集评价两个问题。 子集搜索包含前向搜索、后向搜索、双向搜索等。 子集评价方法包含:信息增益,交叉熵,相关性,余弦相似度等评级准则。 两者结合起来就是特征选择方法,例如前向搜索与信息熵结合,显然与决策树很相似。 常见特征选择有三转载 2017-08-10 21:29:51 · 943 阅读 · 0 评论 -
机器学习中特征选择
一、特征选择和降维 1、相同点和不同点 特征选择和降维有着些许的相似点,这两者达到的效果是一样的,就是试图去减少特征数据集中的属性(或者称为特征)的数目;但是两者所采用的方式方法却不同:降维的方法主要是通过属性间的关系,如组合不同的属性得新的属性,这样就改变了原来的特征空间;而特征选择的方法是从原始特征数据集中选择出子集,是一种包含的关系,没有更改原始的特征空间。 2、降维的主要方法原创 2017-08-06 14:32:39 · 396 阅读 · 0 评论