矩阵向量
文章平均质量分 93
老实人小李
这个作者很懒,什么都没留下…
展开
-
常用矩阵求导公式,逆矩阵求导
∂βx∂x=β\frac{\partial \beta \mathbf{x}}{\partial \mathbf{x}}=\beta∂x∂βx=β∂xTx∂x=2x\frac{\partial \mathbf{x}^T\mathbf{x}}{\partial \mathbf{x}}=2\mathbf{x}∂x∂xTx=2x∂xTAx∂x=(A+AT)x\frac{\partial \mathbf{x}^TA\mathbf{x}}{\partial \mathbf{x}}=(A+A^T)\mathbf原创 2022-02-24 12:23:18 · 1859 阅读 · 0 评论 -
拉普拉斯矩阵(Laplacian matrix)及其变体
拉普拉斯矩阵(Laplacian matrix) 也叫做导纳矩阵、基尔霍夫矩阵或离散拉普拉斯算子,是图论中用于表示图的一种重要矩阵。定义给定一个具有 n 个顶点的简单图 G=(V,E)G=( V , E )G=(V,E),V 为顶点集合,E 为边集合,其拉普拉斯矩阵可定义为:L=D−AL = D − AL=D−A其中 A∈RA \in RA∈R 为邻接矩阵(adjacency matrix),D∈Rn×nD \in \mathbb{R}^{n \times n}D∈Rn×n 为度矩阵(degree原创 2021-01-23 22:32:31 · 4408 阅读 · 0 评论 -
仿射函数与线性变换的区别
为了方便起见,以下叙述均采用平面直角坐标系。一个矢量(1,2)可以表示为从原点指向该点的箭头。你可以对这个矢量进行缩放,比如放大两倍就变成了(2,4)这个操作可以表示为2 x(1,2)。也就是说放大k倍就是k(x,y)上面的例子写成矩阵的话就是,这里用到了矩阵乘法。(12)(2002)\begin{pmatrix}1&2\end{pmatrix}\begin{pmatrix}2&0\\0&2\end{pmatrix}(12)(2002)这个很简单。你也可以把矩阵中原创 2020-10-04 18:29:30 · 2873 阅读 · 0 评论 -
旋转——绕原点二维旋转,绕任意点的二维旋转,三维基本旋转,绕任意轴的三维旋转
1 简介计算机图形学中的应用非常广泛的变换是一种称为仿射变换的特殊变换,在仿射变换中的基本变换包括平移、旋转、缩放、剪切这几种。本文以及接下来的几篇文章重点介绍一下关于旋转的变换,包括二维旋转变换、三维旋转变换以及它的一些表达方式(旋转矩阵、四元数、欧拉角等)。2 绕原点二维旋转首先要明确旋转在二维中是绕着某一个点进行旋转,三维中是绕着某一个轴进行旋转。二维旋转中最简单的场景是绕着坐标原点进行的旋转,如下图所示:如图所示点v 绕 原点旋转θ 角,得到点v’,假设 v点的坐标是(x, y) ,那么可原创 2020-09-28 18:26:26 · 12041 阅读 · 0 评论 -
矩阵的迹(Trace)及相关性质证明
1 定义迹运算返回的是矩阵对角元素的和:Tr(A)=∑iAiiTr(A)=\sum_iA_{ii}Tr(A)=i∑Aii若不使用求和符号,有些矩阵运算很难描述,而通过矩阵乘法和迹运算符号可以清楚地表示。例如,迹运算提供了另一种描述矩阵Frobenius范数的方式:∣∣A∣∣F=Tr(AAT)||A||_F=\sqrt{Tr(AA^T)}∣∣A∣∣F=Tr(AAT)2 性质用迹运算表示表达式,我们可以使用很多有用的等式巧妙地处理表达式。例如迹运算在转置运算下是不变的:Tr(A)=Tr原创 2020-09-19 22:36:08 · 51727 阅读 · 3 评论 -
泰勒展开与黑塞矩阵(Hessian Matrix)
黑塞矩阵(Hessian Matrix),又译作海森矩阵、海瑟矩阵、海塞矩阵等,是一个多元函数的二阶偏导数构成的方阵,描述了函数的局部曲率。黑塞矩阵最早于19世纪由德国数学家Ludwig Otto Hesse提出,并以其名字命名。黑塞矩阵常用于牛顿法解决优化问题,利用黑塞矩阵可判定多元函数的极值问题。在工程实际问题的优化设计中,所列的目标函数往往很复杂,为了使问题简化,常常将目标函数在某点邻域展开成泰勒多项式来逼近原函数,此时函数在某点泰勒展开式的矩阵形式中会涉及到黑塞矩阵。在工程实际问题的优化设计中,所原创 2020-09-04 18:21:56 · 3675 阅读 · 2 评论 -
小学生都能看明白的特征值分解和奇异值分解
特征值和特征向量不明白先看这个奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。特征值分解特征值分解是将一个矩原创 2020-09-07 15:18:37 · 168 阅读 · 0 评论 -
特征值和特征向量的计算和理解
这些知识是我大一学过的,但是现在有点点不熟练,写篇博文加深一下印象特征值和特征向量的计算设AAA是nnn阶方阵如果存在常数λ\lambdaλ以及非零nnn向量xxx,使得Ax=λxAx=\lambdaxAx=λx那么称λ\lambdaλ是矩阵AAA的特征值,xxx是AAA属于特征值λ\lambdaλ的特征向量 给定nnn阶矩阵AAA,行列式∣λE−A∣=∣λ−a11−a12...−a1n−a21λ−a22...−a2n............−an1−an2...λ−ann∣ |\lambda E原创 2020-09-06 13:00:00 · 3916 阅读 · 1 评论 -
带你秒懂向量与矩阵的范数(Norm)
向量的范数向量的1-范数∥X∥1=∑i=1n∣x1∣\|X\|_1=\sum_{i=1}^n{|x_1|}∥X∥1=i=1∑n∣x1∣意义:各个元素的绝对值之和向量的2-范数 (l2−norml_2-norml2−norm)∥X∥2=(∑i=1nxi2)12=∑i=1nxi2\|X\|_2=(\sum_{i=1}^{n}{x_i^2})^{\frac{1}{2}}=\sqrt {\sum_{i=1}^n{x_i^2}}∥X∥2=(i=1∑nxi2)21=i=1∑nxi2原创 2020-09-05 18:15:49 · 19284 阅读 · 2 评论