在前面一篇 Chat 中,我们利用矩阵的特征值分解对数据进行主成分分析。这种方法有一定的局限性:即要求矩阵必须是方阵且能够被对角化。那么如果拓展到一般情况,对于任意形状的矩阵我们该如何处理呢?
这篇 Chat 将介绍一个更通用的利器:奇异值分解。他可以对任意形状的矩阵进行分解,适用性更广。我们可以将特征值分解看作是奇异值分解的特殊情况,先从特征值分解的几何意义入手,然后从特殊到一般,在空间的背景下引导大家一步一步探索奇异值分解方法的推导过程,从头摸索一遍方法的来龙去脉,并具体运用他对数据进行降维处理。
全文主要内容如下:
- 回顾特征值分解的几何意义
- 探讨奇异值分解的具体实施细节
- 从行和列两个维度进行数据压缩和矩阵近似
- 利用 Python 进行奇异值分解
阅读全文: http://gitbook.cn/gitchat/activity/5cdd55d6f8748e29f3d6860d
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。