线性代数
文章平均质量分 81
线性代数相关知识点,参考:Gibert Strange的Introduction to Linear Algebra
fxnfk
这个作者很懒,什么都没留下…
展开
-
协方差矩阵的几何解释
昨天看LLE locally linearly embedding时,看到目标函数minY∑in∥yi−∑j=1kwijyj∥2min_Y\sum_i^n\Vert{y_i-\sum_{j=1}^k w_{ij} y_j}\Vert^2minY∑in∥yi−∑j=1kwijyj∥2 .这样就没有唯一解,所以要对YYY进行限制。对YYY进行平移,不影响目标函数,所以可以把YYY的均值固...原创 2019-11-26 18:55:59 · 597 阅读 · 0 评论 -
特征值 特征向量
一个线性变换AAA,它的特征向量xxx,在对这个向量进行线性变换后,它的方向不变Ax=λxAx=\lambda xAx=λx.方阵才有特征值。图片出处我还是有些东西想不明白,记录在这。矩阵 线性变换 本质 基变换 特征向量 特征值 方阵 对称矩阵 变过去再变回来什么丢失了 平移 拉伸 旋转 方阵 协方差矩阵 矩阵分解 A=UΣVTA=U\Sigma V^TA=UΣVT, Ax=yAx=y...原创 2019-11-26 17:46:42 · 269 阅读 · 0 评论 -
线代和概率论补漏
1、Tracethe trace of a square matrix A is defined as the sum of elements on the main diagonal of A.The trace of a matrix is sum of the eigenvalues, and it is invariant with respect to a change of bas...原创 2019-10-27 21:19:00 · 625 阅读 · 0 评论 -
奇异值分解
我觉得线性代数中最主要的概念是基变换和矩阵分解。矩阵分解的本质就是基变换。选择不同的基,可以将矩阵分解为不同的形式。几种不同的线性变换AAA是一个m∗nm*nm∗n的矩阵,与AAA相关的4个空间如下:列空间C(A), 行空间R(A), 零空间N(A), ATA^TAT的零空间N()N()N()...原创 2019-08-18 10:29:59 · 483 阅读 · 0 评论 -
线性代数基本概念
线性代数的几个概念:向量空间(vector space),子空间(subspace),零向量(zero vector),维度(dimension),基(basis),线性无关,span the space。The space RnR^nRn consists of all column vectors vvv with n components.空间RnR^nRn是由所有具有n个分量的列向量...原创 2019-01-28 16:56:27 · 3108 阅读 · 0 评论 -
投影矩阵
在RmR^mRm空间有一个向量bbb,求向量到矩阵A的列空间C(A)C(A)C(A)的投影矩阵?(A是m*n的矩阵)b=p+eb=p+eb=p+e,ppp是投影向量,eee是跟列空间垂直的N(AT)N(A^T)N(AT)空间中的向量,ATe=0A^Te=0ATe=0。(图中写错两个地方,“投影向量”,其实为投影矩阵)...原创 2019-01-25 12:16:49 · 1812 阅读 · 0 评论 -
线性变换
Linear Transformation线性变换A transformation TTT assigns an output T(v)T(v)T(v) to each input vector v in V.子空间VVV中一个向量vvv,经过变换TTT后,变为T(v)T(v)T(v)The transformation is linear if it meets these req...原创 2018-11-14 00:16:57 · 685 阅读 · 0 评论 -
向量内积和夹角的关系
最近在做文本聚类,用到了奇异值分解,可是我不明白原理,于是复习线性代数。遇到了向量内积和夹角的关系,不太明白。向量内积,也叫做向量的点积,是两个向量对应分量乘积之和。如果两个向量是垂直的,那么点积为0。如果点积为0,那么两个向量是垂直的。如果两个向量内积大于0,那么两个向量夹角小于90',如果两个向量内积小于0,那么两个向量夹角大于90’。 $$x=原创 2015-01-15 17:30:38 · 13757 阅读 · 0 评论 -
奇异 正定?
线性代数中经常看到这两个词,矩阵是奇异的singular,非奇异的nonsingular,矩阵是正定的positive definite,半正定的positivesemi-definite。一段时间不看后,再看到这两个词我又是一脸懵。今天把他们记下来,不要再忘了。singular奇异先不记录他们的定义,先从最根本的Ax=bAx=bAx=b说起。给一个m∗nm*nm∗n的矩阵AAA,看跟A...原创 2018-11-03 22:17:09 · 2318 阅读 · 0 评论 -
奇异值分解
接上文https://mp.csdn.net/mdeditor/83690780#对于非方阵或非满秩的矩阵,怎么求逆呢?先不说怎么求逆,先看逆是什么意思。像上图所示,一个xxx对应一个ppp,N(AT)N(A^T)N(AT)中的p对应000。这个就是逆A+A^+A+(伪逆)。Ax=b,x=A+bAx=b, x=A^+bAx=b,x=A+b这个伪逆怎么求呢?要找到R(A)R(A)R(A)的...原创 2018-11-04 00:40:26 · 528 阅读 · 0 评论 -
线性代数
奇异值分解 矩阵分解 标准正交基 feature reduction的PCA 抽取重要特征 特征向量 特征值 正交向量 特征值分解一切从向量开始,向量的线性组合cv⃗+dw⃗cv→+dw→c\vec{v}+d\vec{w}. 如果是两个不平行(不相关)的二维向量,它们所有的线性组合就可以铺满整个二维平面(空间)。...原创 2018-09-17 11:15:20 · 251 阅读 · 0 评论 -
用线代的角度看椭圆
椭圆可以看作由一个圆经过拉伸和旋转两个线性变换得到。变换T:对空间VVV中对每个向量vvv,对于一个T(v)T(v)T(v);线性变换:T(cv+dw)=cT(v)+dT(w)T(cv+dw)=cT(v)+dT(w)T(cv+dw)=cT(v)+dT(w)线性变换可以用矩阵表示。假设蓝色的圆到红色的椭圆是通过沿y轴方向拉伸一倍得到的。那么xxx到x1x_1x1可以用下面的矩阵表示:...原创 2018-11-03 20:17:18 · 2866 阅读 · 4 评论 -
线性代数 矩阵分解
线代中几个重要的矩阵分解和图,在这记录一下。原创 2018-11-04 09:44:02 · 801 阅读 · 0 评论