中文文档: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html
英文文档: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html
官方文档: http://scikit-learn.org/stable/
GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个 Star,我们一直在努力)
贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者
关于我们: http://www.apachecn.org/organization/209.html
4.4. 无监督降维
如果你的特征数量很多, 在监督步骤之前, 可以通过无监督的步骤来减少特征. 很多的 无监督学习 方法实现了一个名为 transform
的方法, 它可以用来降低维度. 下面我们将讨论大量使用这种模式的两个具体示例.
4.4.1. PCA: 主成份分析
decomposition.PCA
寻找能够捕捉原始特征的差异的特征的组合. 请参阅 分解成分中的信号(矩阵分解问题).
示例
-
ref: ‘sphx_glr_auto_examples_applications_plot_face_recognition.py’
4.4.2. 随机投影
模块: random_projection
提供了几种用于通过随机投影减少数据的工具. 请参阅文档的相关部分: 随机投影.
4.4.3. 特征聚集
cluster.FeatureAgglomeration
应用 层次聚类 将行为类似的特征分组在一起.
特征缩放
请注意,如果功能具有明显不同的缩放或统计属性,则 cluster.FeatureAgglomeration
可能无法捕获相关特征之间的关系.使用一个 preprocessing.StandardScaler
可以在这些 设置中使用.
中文文档: http://sklearn.apachecn.org/cn/stable/modules/unsupervised_reduction.html
英文文档: http://sklearn.apachecn.org/en/stable/modules/unsupervised_reduction.html
官方文档: http://scikit-learn.org/stable/
GitHub: https://github.com/apachecn/scikit-learn-doc-zh(觉得不错麻烦给个 Star,我们一直在努力)
贡献者: https://github.com/apachecn/scikit-learn-doc-zh#贡献者
关于我们: http://www.apachecn.org/organization/209.html
有兴趣的们也可以和我们一起来维护,持续更新中 。。。
机器学习交流群: 629470233