深度学习中的线性代数知识详解

这篇博客详细介绍了深度学习中线性代数的基础知识,包括标量、向量和张量的概念,矩阵的转置、加法、乘法和逆矩阵,线性相关性及其在解线性方程组中的应用,以及范数和伪逆矩阵。还讨论了特征分解和奇异值分解(SVD)在理解和分析矩阵中的作用。
摘要由CSDN通过智能技术生成

1. 基础概念

标量(scalar)
一个标量就是一个单独的数,一般用小写的的变量名称表示。

向量(vector)
一个向量就是一列数,这些数是有序排列的:

x1x2...x5 [ x 1 x 2 . . . x 5 ]

矩阵(matrices)
矩阵是二维数组:
a11a21...am1a12a22...am2.........a1na2n...amn [ a 11 a 12 . . . a 1 n a 21 a 22 . . . a 2 n . . . . . . . . . a m 1 a m 2 . . . a m n ]

张量(tensor)
多维数组中元素分布在若干位坐标的规则网络中, 称之为张量. 几何代数中定义的张量是基于向量和矩阵的推广,通俗一点理解的话,我们可以将标量视为零阶张量,矢量视为一阶张量,那么矩阵就是二阶张量
张量在深度学习中是一个很重要的概念,因为它是一个深度学习框架中的一个核心组件,后续的所有运算和优化算法几乎都是基于张量进行的。

2. 矩阵相关

转置(transpose)
主对角线: 矩阵从左上角到右下角的对角线称为主对角线.矩阵的转置是指以主对角线为轴的镜像.
令矩阵 A A 的转置表示为 AT A T , 则定义如下:

((A)T)i,j=Ai,j ( ( A ) T ) i , j = A i , j

Tips:
向量是 单列矩阵, 向量的转置是 单行矩阵. 标量可看做 单元素矩阵, 因此标量的转置是它本身: a=aT a = a T .

矩阵加法和广播:
矩阵加法定义: C=A+B C = A + B

在深度学习中, 允许矩阵和向量相加, 产生一个新的矩阵, 简写为: C=A+b C = A + b , 表示向量 b b 和矩阵 A A 的每一行都相加. 这种隐式地幅值向量 b b 到很多位置的方式成为广播.

矩阵乘法
分配律: A(B+C) A ( B + C )
结合律: A(BC)=(AB)C A ( B C ) = ( A B ) C
矩阵乘积不满足交换律: ABBA A B ≠ B A
向量点积满足交换律: xTy=yTx x T y = y T x
乘积的转置: (AB)T=BTAT ( A B ) T = B T A T

单位矩阵
主对角线元素都是1, 其余位置所有元素都是0的矩阵:

100010001 ( 1 0 0 0 1 0 0 0 1 )

我们将n维向量不变的单位矩阵即为 In I n :
xRn,Inx=x,InRnxn ∀ x ∈ R n , I n x = x , 其 中 I n ∈ R n x n

逆矩阵
矩阵逆是强大的工具, 对于大多数矩阵, 都可以通过矩阵逆解析求

  • 3
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值