本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。内容大多来自Standford公开课machine learning中Andrew老师的讲解和其他书籍的借鉴。(https://class.coursera.org/ml/class/index)
PS: 盼望已久的十一长假就要到了~祝大家国庆快乐,玩的开心!(*^__^*)
第十讲. 降维——Dimensionality Reduction
===============================
(一)、为什么要降维?
(二)、主成分分析Principal Component Analysis (PCA)
(三)、PCA 算法流程
(四)、从压缩数据中恢复原数据
(五)、怎样决定降维个数/主成分个数
(六)、应用PCA进行降维的建议
本章主要讲述应用PCA算法进行数据降维的原理
=====================================
(一)、为什么要降维?
- About data:
我们需要一组关于XXX的数据,定义就铺天盖地的来了,百万级个特征拿过来,我们怎么进行机器学习啊?!李航老师在他的博客《机器学习新动向:从人机交互中》中提到,学习精度越高,学习确信度越高,学习模型越复杂,所需要的样本也就越多。样本复杂度满足以下不等式
由此可见,feature太多会造成模型复杂,训练速度过慢,因此我们引入降维。
- About Visualization:
多维数据很难进行可视化分析,因此我们需要降维分析。