机器学习相关概念
博主不断学习中,部分内容不准确还望提出指正
线性代数
张量
- 张量(tensor):超过2维的数组
生成子空间
- 生成子空间(span): 原始向量
线性组合
后能抵达点的集合(特殊 矩阵列向量
生成的子空间为该方程式的值域
) - 只有一个解的阵 A,其解为 A−1 .满足的这种阵要求
- 方阵
- 所有列向量线性无关
范数
- 范数用于测量两个矢量间的距离。或单独向量的大小
Lp 范数
定义如下
||x||p=(∑i|xi|p)1pL2范数
:也叫欧几里得范数
。表示从原点出发到该向量的欧式距离
。 L22 范数可简化为 ||x|| ,可通过向量间点积
计算: wTx
- L2范数在原点附近增长缓慢,此时需采用 L1范数计算
L1范数
:||x||1=∑i|xi|.比较0与非0元素差异是常用- 最大范数: L∞ 范数:表示向量中最大幅值的元素的绝对值(就是 argmax 函数)
||x||∞=maxi|xi| - 弗罗贝尼乌斯范数:又称 Frobenius 范数。用于测量矩阵的大小或矩阵间的差异。
||A||F=∑i,jA2i,j‾‾‾‾‾‾√ - 点积用范数表示:
xTy=||x||2||y||2cosθ
特征分解
- 特征向量:一个向量 v 满足
Av=λv -
A=Vdiag(λ)V−1这里 V 为特征向量阵,diag( λ )为特征值阵
- 构建特定特征值与特征向量的矩阵可以使我们在目标方向上延伸空间
奇异值分解SVD
- 提供了新的分解模式
奇异向量
+奇异值
A=UDVT
- 这里若 A 为 (m,n).则 U为(m,m) V 为(n,n)D 为(m,n)
- U与 V全都定义为正交阵,D 为对角阵。
- D 对角线上元素称为 A 阵的
奇异值
- U 的列向量为 A 的
左奇异向量
- V 的列向量为 A 的
右奇异向量
- SVD 将求逆扩展到非方阵上。(
伪逆
)
Moore-Penrose 伪逆
- 目的:希望给阵 A 找到个左逆B 使得原 Ax=y 变为 x=By
- 定义: A+=VD+UT
- U,V 为 A 的左右奇异阵
- D+ 是将,奇异分解的 D 通过对内部非零元素取倒数后再转置得到的
- 特性:
- 当 m<n 时,伪逆得到的线性方程的解是众多解的一种。特别的将
x=A+y得到的将是所有解中2范数最小的
- 当 m>n 时,此时组成的线性方程本身可能无解。此时通过
伪逆
得到的 x 是使得 Ax 与 y 欧氏距离最小的一个。
- 当 m<n 时,伪逆得到的线性方程的解是众多解的一种。特别的将
迹运算
- 迹:返回对角线元素和
Tr(A)=∑i