-
标量:只有大小没有方向的物理量
-
向量:又称矢量,既包含大小又包含方向的物理量
-
矩阵:矩阵是一个二维数组,其中的每一个元素一般由两个索引来确定,一般用大写变量表示。
-
张量:矢量概念的推广,可以用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。【标量是0阶张量,矢量是1阶张量,矩阵是2阶张量】
-
矩阵的秩:矩阵列向量中的极大线性无关组的数目,记作列秩。行秩=列秩=矩阵的秩,通常记作rank(A)。
-
矩阵的逆:若A为方阵,当rank(A)<n时,称A为奇异矩阵或不可逆矩阵。若rank(A)=n时,A为非奇异矩阵或可逆矩阵。
- 如果矩阵不为方阵或者是奇异矩阵,不存在逆矩阵,但是可以计算其广义逆矩阵或者伪逆矩阵。
对应于矩阵A,若存在矩阵B使得ABA=A,则称B为A的广义逆矩阵。
- 机器学习中常见的矩阵分解:特征分解和奇异值分解
-
矩阵的特征值和特征向量:若矩阵A为方阵,则存在非零向量 x x x和常数 λ \lambda λ满足 A x = λ x Ax=\lambda x Ax=λx,则称 λ \lambda λ为A的一个特征值, x x x为矩阵A关于 λ \lambda λ的特征向量。
矩阵的迹和行列式的值: t r ( A ) = ∑ i = 1 n λ i tr(A)=\sum_{{i=1}^{n}}\lambda_{i} tr(A)=∑i=1nλi, ∣ A ∣ = ∏ i = 1 n λ i \left | A \right | = \prod_{i=1}^{n}\lambda_{i} ∣A∣=∏i=1nλi -
矩阵的特征分解:若矩阵 A n × n A_{n\times n} An×n存在n个不同的特征值,那么矩阵可以分解为 A = U ∑ U T A=U\sum U^{T} A=U∑UT
∑ = [ λ 1 0 ⋯ 0 0 λ 2 ⋯ 0 0 0 ⋱ ⋮ 0 0 ⋯ λ n ] U = [ u 1 , u 2 , ⋯ , u n ] \sum = \begin{bmatrix} \lambda_{1} & 0 & \cdots & 0\\ 0 & \lambda_{2} & \cdots & 0\\ 0 & 0& \ddots & \vdots\\ 0 & 0 & \cdots & \lambda_{n} \end{bmatrix} U = \begin{bmatrix} u_{1},u_{2},\cdots,u_{n} \end{bmatrix} ∑=⎣⎢⎢⎢⎡λ10000λ200⋯⋯⋱⋯00⋮λn⎦⎥⎥⎥⎤U=[u1,u2,⋯,un]
其中 u i u_{i} ui是标准化的特征向量,即满足 ∥ u i ∥ 2 = 1 \left \| u_{i} \right \|_{2}=1 ∥ui∥2=1 -
奇异值分解:对于任意矩阵 A m × n A_{m\times n} Am×n,存在正交矩阵 U m × m U_{m\times m} Um×m, V n × n V_{n\times n} Vn×n,使得其满足 A = U ∑ V T A=U\sum V^{T} A=U∑VT, U T U = V T V = I U^{T}U=V^{T}V=I UTU=VTV=I.则称上式为矩阵A的特征分解,其中 ∑ \sum ∑为 m × n m\times n m×n的矩阵。
- 求解过程
1. A T A A^{T}A ATA的特征值的{ λ i \lambda_{i} λi}和特征向量{ v i v_{i} vi}
2. A A T AA^{T} AAT的特征向量{ u i u_{i} ui}
3. U = [ u 1 , ⋯ , u m ] U = \begin{bmatrix} u_{1},\cdots,u_{m} \end{bmatrix} U=[u1,⋯,um], V = [ v 1 , ⋯ , v n ] V = \begin{bmatrix} v_{1},\cdots,v_{n} \end{bmatrix} V=[v1,⋯,vn], ∑ = d i a g ( λ i ) \sum = diag(\sqrt \lambda_{i}) ∑=diag(λi)
- 求解过程