线性代数
yanhx1204
这个作者很懒,什么都没留下…
展开
-
简单的理解特征值和特征向量的特征意义
1、矩阵基础矩阵是一个表示二维空间的数组,矩阵可以看做是一个变换。在线性代数中,矩阵可以把一个向量变换到另一个位置,或者说从一个坐标系变换到另一个坐标系。矩阵的“基”,实际就是变换时所用的坐标系。而所谓的相似矩阵,就是同样的变换,只不过使用了不同的坐标系。线性代数中的相似矩阵实际上就是要使这些相似的矩阵有一个好看的外表,而不改变其变换的功用。2、矩阵的特征方程式 AX = Xλ方程左...转载 2018-02-23 16:14:10 · 2260 阅读 · 0 评论 -
特征值分解、奇异值分解(SVD)原理与在降维中的应用
奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。1. 回顾特征值和特征向量 我们首先回顾下特征值和特征向量的定义如下:Ax=λxAx=λ...转载 2018-02-23 17:11:42 · 697 阅读 · 0 评论