矩阵分解
billbliss
这个作者很懒,什么都没留下…
展开
-
矩阵分解 LDL^T分解
分解实际问题中,当求解方程组的系数矩阵是对称矩阵时,则用下面介绍的分解法可以简化程序设计并减少计算量。从定理可知,当矩阵A的各阶顺序主子式不为零时,A有唯一的Doolittle分解A= LU。矩阵U的对角线元素Uii 不等于0,将矩阵U的每行依次提出,下面将U分解为定理:若对称矩阵A的各阶顺序主子式不为零时,则A可以唯转载 2017-11-17 14:14:17 · 26148 阅读 · 1 评论 -
矩阵分解 Cholesky分解
Cholesky分解法又叫平方根法,是求解对称正定线性方程组最常用的方法之一。对于一般矩阵,为了消除LU分解的局限性和误差的过分积累,采用了选主元的方法,但对于对称正定矩阵而言,选主元是不必要的。 定理:若对称正定,则存在一个对角元为正数的下三角矩阵,使得成立。 假设现在要求解线性方程组,其中为对称正定矩阵,那么可通过下面步骤求解 (1)求的转载 2017-11-17 11:36:08 · 35707 阅读 · 1 评论 -
矩阵分解 SVD分解
1.前言一般提到特征值分解(eigenvalue decomposition)或者奇异值分解(singular value decomposition),大多数同学脑海里的第一反应就是一大堆矩阵以及数学计算方法。确实,学校学习阶段,不管是学线性代数或者矩阵分析,对于这部分内容,或者说绝大部分内容,老师一上来都是吧啦吧啦给你一堆定理推论或者公理,然后就是哗啦哗啦一堆公式出来,告诉你怎么计算。转载 2017-11-20 09:46:20 · 28654 阅读 · 3 评论 -
PCA和SVD的关系
最近突然看到一个问题,PCA和SVD有什么关系?隐约记得自己照猫画虎实现的时候PCA的时候明明用到了SVD啊,但SVD(奇异值分解)和PCA的(特征值分解)貌似差得相当远,由此钻下去搜集了一些资料,把我的一些收获总结一下,以免以后再忘记。PCA的简单推导PCA有两种通俗易懂的解释,1)是最大化投影后数据的方差(让数据更分散);2)是最小化投影造成的损失。这两个思路最后都能推导出同样的结果。 下图应...转载 2018-05-25 14:53:32 · 2998 阅读 · 0 评论