机器学习入门学习笔记--------矩阵相关内容的意义

讲一下我刚学刚理解的矩阵相关的知识(可能有错误)

矩阵的意义

 首先矩阵本身就是一种变换,可以理解为矩阵是一种力,很难直接看到它的效果,必须要把它作用于一个向量(乘以一个向量),观察向量之后的状态,才可以看到矩阵的效果。

特征值和特征向量的意义

 根据这个理解,我们来看矩阵的特征向量和特征值的含义(怎么计算我就不留个自己了)。在能做特征分解的矩阵中,任意一个向量在不停的被矩阵作用后(做乘法)会越来越趋近一个方向,这个方向就是特征值最大的特征向量的方向。去掉这个特征向量后,重新讲这股力不停的作用于一个向量,向量再趋近的方向是特征值第二大的特征向量的方向,再去掉。。。。。就会得出所有的特征向量。所以,特征向量就是矩阵这个力所表现出的效果,特征值就是这个效果有多强大。

行列式的意义

一个解释是行列式就是行列式中的行或列向量所构成的超平行多面体的有向面积或有向体积;
另一个解释是矩阵A的行列式detA就是线性变换A下的图形面积或体积的伸缩因子。

 这两句话是复制的,我对这两句话的理解就是,我们可以把矩阵A看做是由很多列向量组成(行向量也一样,我目前习惯列向量),因为矩阵A代表的是一种变换,拿二维举例子:
 我们常用的基向量是(1,0)和(0,1),矩阵A比如是(2,1)和(2,2)两个列向量组成的,那么这个变换就可以看成是(1,0)这个基向量被拉伸变换成了(2,1),(0,1)这个基向量被拉伸变换成了(2,2),并在此基础上整个图形做出了相应的变换。那么A的行列式就代表了这个变换与原来以(1,0)和(0,1)为基底的图形的面积的比值,也就是伸缩因子。
 继续以上面提到的数据为例子,加入有个三角形,在(1,0)和(0,1)基底中,坐标是(0,0),(2,0),(2,1)不难得出面积为1,这个图形在经过矩阵A的作用后,被拉伸成了另一个三角形,相当于以(2,1)和(2,2)为基底,新坐标为(0,0),(4,2)和(6,4),面积是2而经过计算,矩阵A的行列式就是2,也就是面积的伸缩因子是2。

 我也是刚学,如果我理解的哪里有错误请帮我指出,万分感谢。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值