![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
前置数学
kevin聪
Success is not final.Failure is not fatal.It is the courage to continue that counts.
展开
-
MIT线性代数笔记-第三讲
Rules for matrix operations A * B = C 1.regular way The entry in row i and column j of AB is (row i of A) dot product(column j of B)2.column way every column of c is combination of the columns ...原创 2018-03-07 00:16:58 · 376 阅读 · 0 评论 -
MIT线性代数笔记-第二十八讲
ATAATAA^TA 为正定矩阵先看一下正定矩阵的性质: 1.对称 2.逆矩阵亦为正定矩阵(由于原矩阵的特征值与逆矩阵互为倒数,那么逆矩阵的特征值也大于0) 3.若A,B为正定矩阵,A + B亦为正定矩阵我们来证一下第三条。由27讲我们知道,证明正定矩阵的最关键的一条为xTAx>0xTAx>0x^TAx > 0,根据A,B为正定矩阵,我们得到: xTAx>0xTA...原创 2018-03-17 19:07:37 · 436 阅读 · 0 评论 -
MIT线性代数笔记-第十七讲
orthogonal basis 注意,q为单位向量,长度为1 如果A可以转化为每个列向量为正交向量,即A转化为Q,那么QTQ=IQTQ=IQ^TQ = I,极大的简化了计算orthogonal matrix注意,只有当Q为方阵,且其中的列向量为正交时,Q被叫做正交矩阵 如果Q为方阵,那么由QTQ=IQTQ=IQ^TQ = I可以得出,Q−1=QTQ−1=QTQ^{-1} =...原创 2018-03-11 18:55:31 · 507 阅读 · 1 评论 -
MIT线性代数笔记-第十八讲
Determinantsproperties1detI=1detI=1detI = 1 ∣∣∣1001∣∣∣=1|1001|=1 \left| \begin{matrix}1 & 0 \\0 & 1\end{matrix} \right| = 1 2Exchange rows:reverse sign of det 由这个性质,我们可以得到detP...原创 2018-03-11 21:52:12 · 475 阅读 · 0 评论 -
MIT线性代数笔记-第十九讲
Formula for detA先看一下determinant最核心的三个性质: 1.detI=1detI=1detI = 1 2.sign reverse with row exchange 3.det is linear in each row separately 现在我们要用这三个性质来推出detA的一般公式先看一下2*2的例子: ∣∣∣acbd∣∣∣=∣∣∣ac0d∣∣...原创 2018-03-11 23:00:06 · 835 阅读 · 0 评论 -
MIT线性代数笔记-第二十讲
Formula for A−1A−1A^{-1}[acbd]−1=1ad−bc[d−c−ba][abcd]−1=1ad−bc[d−b−ca] \left[ \begin{matrix}a & b \\c & d\end{matrix} \right]^{-1} = \frac{1}{ad - bc} \left[ \begin{matrix}d & -b \\...原创 2018-03-12 01:58:11 · 526 阅读 · 0 评论 -
MIT线性代数笔记-第二十九讲
SVD(singular value decomposition)我们实际上已经见过对称正定矩阵的奇异值分解: A=QΛQTA=QΛQTA = Q\Lambda Q^T奇异值分解的公式为:A=U∑VTA=U∑VTA = U\sum V^T,U和VU和VU和V为正交矩阵,∑∑\sum为对角矩阵先来看看这张图 我们的目标就是从行空间中找到一组正交的向量,通过A映射到列空间中的正交向...原创 2018-03-17 21:19:10 · 430 阅读 · 0 评论 -
MIT线性代数笔记-第三十讲
线性变换投影是一种线性变换 线性变换的两大法则: 衍生出来的一个法则: 来看一个不满足线性变换的例子,将一个向量加上v0v0v_0 此例违反法则1和法则2,不满足线性变换同样地,求向量的模也不是线性转换,由于T(-v) = -T(v)另一个满足线性变换的例子,向量旋转 矩阵变换,满足线性变换 将三维空间的向量映射到二维空间 如果我们想了解线性变...原创 2018-03-17 22:27:44 · 471 阅读 · 0 评论 -
MIT线性代数笔记-第一讲
从几何方式看线性等式: 2x−y=02x−y=02x - y = 0 −2+2y=3−2+2y=3-2 + 2y = 3 可以看作AX = b,其中A为系数矩阵,X为未知变量矩阵1.raw picture 通过画出直线或平面的方式找交点2.column picture(关键) x[2−1]+y[−12]=[03](1)(1)x[2−1]+y[−12]=[03]\begin{equ...原创 2018-03-06 01:42:48 · 391 阅读 · 0 评论 -
MIT线性代数笔记-第二讲
(先做好大纲,有点晚了。睡~) Elimination success failBack-SubstitutionElimination MatricesMatrix multiplicationInverse of matrix原创 2018-03-06 02:38:05 · 398 阅读 · 0 评论 -
MIT线性代数笔记-第三十一讲
Change of Basis信号压缩和图像压缩的本质是基变换 x为初始基的系数,c为新基的系数,通过x=Wcx=Wcx = Wc求出转换后的cCompression of Images一张图片有512∗512512∗512512*512个像素,每个像素的取值范围为0<=xi<2550<=xi<2550 51225122512^2的向量来表示,x的形式...原创 2018-03-19 22:00:15 · 497 阅读 · 1 评论 -
MIT线性代数笔记-第二十一讲
EigenvectorsAx=λxAx=λxAx = \lambda x λλ\lambda为Eigenvalue,x为EigenvectorIf A is Singular,λ=0λ=0\lambda = 0 is evalue 看一个对称矩阵的例子: 一个重要的事实: sum of λ′s=a11+a22+...+ann(矩阵对角线之和叫做trace,也就是迹)λ′s=...原创 2018-03-13 21:07:48 · 546 阅读 · 0 评论 -
MIT线性代数笔记-第二十二讲
对角化公式假设A有n个独立的eigenvector,将它们放入矩阵S中(也叫作eigenvectors matrix) S被叫作eigenvectors matrix ΛΛ\Lambda这个diagonal matrix被叫作eigenvalues matrix公式如下: AS=SΛAS=SΛAS = S\Lambda 可以对它做如下转换: S−1AS=ΛS−1AS=ΛS^{...原创 2018-03-13 22:22:53 · 711 阅读 · 0 评论 -
MIT线性代数笔记-第三十二讲
第六章测验的习题课总结的几点: 1.特征值和特征向量。如何求特征值?A−λIA−λIA - \lambda I(也可以使用另外一些办法,如矩阵的性质-奇异必有0,如特征值乘积等于行列式等等) 2.微分方程 3.对称矩阵的特性。主要是特征值为实数,特征向量充足且正交,可以构建特征向量矩阵,其为正交矩阵.于是原矩阵可以表示为:A=QΛQTA=QΛQTA = Q\Lambda Q^T 4.正...原创 2018-03-20 00:02:52 · 1464 阅读 · 0 评论 -
MIT线性代数笔记-第三十三讲
4个子空间左逆通常,我们说的逆为两边可逆,即 AA−1=I=A−1AAA−1=I=A−1AAA^{-1} = I = A^{-1}A 这种情况下,r = m = n(矩阵A也叫作满秩矩阵)上面是完美的情况,来看看不完美的情况 列满秩,r = n,列向量独立,零空间为零向量。并且Ax=bAx=bAx = b有零或者一个解(由于,r = n,而m > n,因此对b有限制)....原创 2018-03-20 01:10:22 · 466 阅读 · 0 评论 -
MIT线性代数笔记-第三十四讲
期末复习课,也是通过习题第一题 由于 Ax=⎡⎣⎢100⎤⎦⎥Ax=[100] Ax = \left[ \begin{matrix}1 \\0 \\0\end{matrix} \right] 无解,得知r < m 由 Ax=⎡⎣⎢010⎤⎦⎥Ax=[010] Ax = \left[ \begin{matrix}0 \\1 \...原创 2018-03-20 02:07:17 · 495 阅读 · 0 评论 -
微分卷一第一章
1.1和1.2主要介绍了微分的历史背景。直接来到1.31.3用穷举法求抛物线面积 如1.3所示的抛物线,它被包在其中一个顶点为(b, b2b2b^2)的矩形中。由观察得知,抛物线的面积小于该矩形面积的一半。拉基米德得出结论:抛物线面积为13b313b3\frac{1}{3}b^3.我们来看看这个结论是如何推导出来的方法如下: 我们对图形分成很多个小的柱形,并且形成两个对抛物...原创 2018-03-30 01:03:52 · 258 阅读 · 5 评论 -
MIT线性代数笔记-第二十七讲
判断一个矩阵是否为正定矩阵[abbc][abbc] \left[ \begin{matrix}a & b \\b & c\end{matrix} \right] 以二阶矩阵A为例,判断是否为正定矩阵的条件为: 1.λ1>0,λ2>0λ1>0,λ2>0\lambda_1 > 0,\lambda_2 > 0(判定特征值) 2.a>0,ac...原创 2018-03-17 18:00:42 · 470 阅读 · 0 评论 -
MIT线性代数笔记-第二十六讲
复向量和复矩阵如何求复数向量的模? zˇTzzˇTz\check{z}^Tz,zˇzˇ\check{z}表示z的共轭向量 如果将转置和共轭两个操作合在一起,则是zHzHz^H,H代表埃尔米特那么对于复数向量的內积呢? yHxyHxy^Hx那么对称矩阵的定义也得做一下修改 AT=A(A是实矩阵)AT=A(A是实矩阵)A^T = A(A是实矩阵) AH=A(A是复矩阵)AH=A(...原创 2018-03-17 17:18:01 · 419 阅读 · 0 评论 -
MIT线性代数笔记-第十六讲
首先回顾一下投影矩阵P: P=A(ATA)−1ATP=A(ATA)−1ATP = A(A^TA)^{-1}A^T两种极端的情况. 1.如果b在A的列空间中,那么Pb = b 证明: A(ATA)−1ATAx=Ax=bA(ATA)−1ATAx=Ax=bA(A^TA)^{-1}A^TAx = Ax = b2.如果b垂直于列空间,那么Pb = 0 证明: ATb=0−>A(AT...原创 2018-03-11 17:40:24 · 532 阅读 · 0 评论 -
MIT线性代数笔记-第四讲
Elimination=Factorization:A = LUThe factors Land U are triangular matrices. The factorization that comes from elimination is A = L U. 由消去法可知,A可以分解为LU(这是没有row exchange的情况)。 The entries of L are e...原创 2018-03-07 20:01:08 · 384 阅读 · 0 评论 -
MIT线性代数笔记-第五讲
在没有进行row exchange的情况下A = LU 那么有row exchange的情况呢?PA = LU P为对A进行行交换的矩阵 例如: ⎡⎣⎢010100001⎤⎦⎥[010100001]\left[ \begin{matrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{matrix} \right]...原创 2018-03-07 20:30:14 · 502 阅读 · 0 评论 -
MIT线性代数笔记-第二十三讲
这节主要讲如何利用之前学的特征值和特征向量求出一阶导数,常系数方程的解首先来看个例子: 可以发现,A为奇异矩阵,所以得到λ1=0λ1=0\lambda_1 = 0,又由λ1+λ2=−3(trace)λ1+λ2=−3(trace)\lambda_1 + \lambda_2 = -3(trace),得到λ2=−3λ2=−3\lambda_2 = -3然后求出特征向量: x1=[21],...原创 2018-03-14 23:15:58 · 975 阅读 · 0 评论 -
MIT线性代数笔记-第二十四讲
Markov Matrices⎡⎣⎢.1.2.7.01.99.0.3.3.4⎤⎦⎥[.1.01.3.2.99.3.7.0.4] \left[ \begin{matrix}.1 & .01 & .3 \\.2 & .99 & .3 \\.7 & .0 & .4\end{matrix} \right] 马尔科夫矩阵有两条性质: 1.所有项大于0(由于项与概率相关) ...原创 2018-03-15 00:21:47 · 1574 阅读 · 0 评论 -
MIT线性代数笔记-第二十四b讲
这一节课是习题课1.向量 a=⎡⎣⎢212⎤⎦⎥a=[212]a = \left[ \begin{matrix}2 \\1 \\2\end{matrix} \right] 的投影矩阵P为? 直接套公式,P = aaTaTaaaTaTa\frac{aa^T}{a^Ta}P = 19⎡⎣⎢212⎤⎦⎥[212]=19⎡⎣⎢424212424⎤⎦⎥19[212][...原创 2018-03-15 01:14:44 · 313 阅读 · 0 评论 -
MIT线性代数笔记-第六讲
Vector Space requirementsv + w and cv are in the space all combs of cv + dw are in the spaceintersection of S and T is a subspaceColumn Spacedefinition: linear combination of columns of AD...原创 2018-03-08 20:42:29 · 302 阅读 · 0 评论 -
MIT线性代数笔记-第七讲
computing the null spaceA=⎡⎣⎢1232462682810⎤⎦⎥−>⎡⎣⎢100200222244⎤⎦⎥−>⎡⎣⎢100200220240⎤⎦⎥=UA=[1222246836810]−>[122200240024]−>[122200240000]=UA = \left[ \begin{matrix}1 & 2 & 2 & 2 \\2 &...原创 2018-03-08 22:06:20 · 568 阅读 · 0 评论 -
MIT线性代数笔记-第八讲
Compute Solution of AX = bExample x1+2x2+2x3+2x4=b1x1+2x2+2x3+2x4=b1x_1 + 2x_2 + 2x_3 + 2x_4 = b_1 2x1+4x2+6x3+8x4=b22x1+4x2+6x3+8x4=b22x_1 + 4x_2 + 6x_3 + 8x_4 = b_2 3x1+6x2+8x3+10x4=b33x1+6x2+8...原创 2018-03-08 23:02:56 · 638 阅读 · 1 评论 -
MIT线性代数笔记-第九讲
linear independenceSuppose A is m by n with m < n,Then here are nonzero solutions to Ax = 0(more unknown than equations) Reason:There will be free varables!vectors x1, x2, …xn are independent ...原创 2018-03-08 23:45:22 · 468 阅读 · 0 评论 -
MIT线性代数笔记-第二十五讲
Symmetric matrices对称矩阵有什么特点?主要是以下两个性质: 1.特征值为实数 2.特征向量正交,或者可以通过选择正交(当λ值重复时,则可以在一个平面中选择两个垂直的特征向量λ值重复时,则可以在一个平面中选择两个垂直的特征向量\lambda值重复时,则可以在一个平面中选择两个垂直的特征向量)我们知道,普通情况下,当A有n个独立的特征向量时,可以表示为A=SΛS−1A=S...原创 2018-03-15 20:22:53 · 422 阅读 · 0 评论 -
MIT线性代数笔记-第十讲
4 fundamental subspace1.column space C(A) in RmRmR^m2.nullspace N(A) in RnRnR^n3.row space(all combs of rows) C(ATATA^T) in RnRnR^n4.nullspace of ATATA^T = N(ATATA^T) = left null space of A, ...原创 2018-03-09 20:50:29 · 508 阅读 · 0 评论 -
MIT线性代数笔记-第十一讲
Bases of new vector spacesM = all 3 * 3 matrices(add and multiply)subspace: 1.upper triangular matrices2.symmetric matrices,dimS = 6Basis for M = all 3 * 3’s,共计9个,如下所示: ⎡⎣⎢100000000⎤⎦⎥and⎡⎣⎢...原创 2018-03-09 21:41:39 · 661 阅读 · 0 评论 -
MIT线性代数笔记-第十二讲
Graphs and NetworksGraph:Nodes,Edges 如图所示: 该图的节点个数为4,边的个数为5现在这个图是没有方向的,当标上方向后: Incidence Matrices每行为图中对应的边,列数为对应节点数,矩阵中i行j列的值代表着i行对应的边与节点j的关系 上图的incidence matrix为: ⎡⎣⎢⎢⎢⎢⎢⎢−10−1−101−100...原创 2018-03-10 00:38:56 · 698 阅读 · 0 评论 -
MIT线性代数笔记-第十三讲
第十三讲是习题课1.在R7R7R^7中的非零向量u,v,w形成一个子空间,纬度可能是? 1或2或32.5*3的一个矩阵u(3-4都是用的这个矩阵),rank为3,它的零空间为? 只有零向量3.矩阵 [u2u]的echelonform为?[u2u]的echelonform为? \left[ \begin{matrix}u \\2u\end{matrix...原创 2018-03-11 10:50:48 · 421 阅读 · 0 评论 -
MIT线性代数笔记-第十四讲
这一节课主要讲的是正交下图为之前四种子空间的关系 orthogonal(perpendicular) vectors xTy=0xTy=0x^Ty = 0 ||x||2+||y||2=||x+y||2||x||2+||y||2=||x+y||2||x||^2 + ||y||^2 = ||x + y||^2 ->xTx+yTy=(x+y)T(x+y)=xTx+yTy+2xT...原创 2018-03-11 11:38:56 · 511 阅读 · 0 评论 -
MIT线性代数笔记-第十五讲
Projections!aT(b−xa)=0aT(b−xa)=0a^T(b - xa) = 0xaTa=aTbxaTa=aTbxa^Ta = a^Tbx=aTbaTax=aTbaTax = \frac{a^Tb}{a^Ta}p=ax=aaTbaTap=ax=aaTbaTap = ax = a\frac{a^Tb}{a^Ta}投影矩阵为:P=aTbaTaP=aTbaTaP =...原创 2018-03-11 12:34:04 · 471 阅读 · 0 评论 -
MIT线性代数习题全解
习题集1第一题 这里实际上用到了这个等式: cos(β−α)=cos(β)cos(α)+sin(β)sin(α)cos(β−α)=cos(β)cos(α)+sin(β)sin(α)\cos(\beta - \alpha) = \cos(\beta)\cos(\alpha) + \sin(\beta)\sin(\alpha)第二题 三个向量,两两夹角...原创 2018-03-21 00:21:29 · 13756 阅读 · 6 评论