深度学习之基础-线性代数

第二章 线性代数

2.4 线性相关

书里面给的现行相关的例子不是很明了,百科给出的现行相关定义
设α₁,α₂,…,αₑ(e≥1)是域P上线性空间V中的有限个向量.若V中向量α可以表示为:α=k₁α₁+k₂α₂+…+kₑαₑ(kₑ∈P,e=1,2,…,s),则称α是向量组α₁,α₂,…,αₑ的一个线性组合,亦称α可由向量组α₁,α₂,…,αₑ线性表示或线性表出.
给出的实例如下:
定义矢量为[2 4 1 5],[3 5 1 2],[5 6 2 1],[9 0 1 3]·权重为0.1,0.4,0.25,0.25。求其线性组合s。
s的第一个元素为 0.12+0.43+0.255+0.259依次类推

可以看出,对比方程 Ax=b 四个矢量就是矩阵A中的四个列向量,而权重组合成一个向量则是x。如此就可以理解,b向量的第i个维度是对A中每一个列向量的第i个维度用x作为权重加权计算得到,(x权重总和可能不是1)

2.5 范数

范数是一个将向量映射到非负值的函数,其通用定义如下
∣ ∣ x ∣ ∣ p = ( ∑ ∣ x i ∣ p ) 1 / p ||x||_p = (\sum|x_i|^p)^{1/p} xp=(xip)1/p
当p等于2且i等于2时,是常见的平面上向量长度,但是注意p是属于实数的值,因此其数值未必额i的最大值相同,对于三维向量,依旧可以对其取 L2范数

常用范数:

  • 平方范数,即p=2的情况下,这种范数的计算方便,但是由于其导数和每个元素相关,在零点附近变化不理想
  • 一级范数,p=1情况,简化为
    ∣ ∣ x ∣ ∣ 1 = ∑ ∣ x i ∣ ||x||_1 = \sum|x_i| x1=xi
  • 最大范数,代表向量中具有最大振幅值的元素
    ∣ ∣ x ∣ ∣ ∞ = m a x ∣ x i ∣ ||x||_{\infty}=max|x_i| x=maxxi
  • 矩阵大小的frobenius范数
    ∣ ∣ A ∣ ∣ F = ∑ i , j A i , j 2 ||A||_F = \sqrt{\sum_{i,j}A_{i,j}^2} AF=i,jAi,j2

2.7 特征分解

  • 特征向量:指与A相乘后相当于对该向量进行缩放的非零向量:
    A ∗ ν = λ ν A*\nu = \lambda\nu Aν=λν
  • 特征值:,对应的常数λ
  • 特征分解:A的n个线性无关的特征向量和其特征值矩阵向量化,
    A = V ∗ d i a g ( λ ) ∗ V − 1 A = V*diag(\lambda)*V^{-1} A=Vdiag(λ)V1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值