模式识别中的特征向量和矩阵的特征向量有什么关系

模式识别中的特征向量和矩阵的特征向量有什么关系

 


特征向量是个什么东西?学过矩阵论的人都知道,一个可逆的矩阵可以分解为特征值和特征向量的乘积,即AV=lambaV,其中V是特征向量矩阵;这个的好处是可以把一个矩阵换基;即将一个矩阵基底转换为以另一组以特征向量为基的矩阵;好处呢,显而易见,可以抛弃太小的特征值对应的基,他没意义嘛,从而起到降维的效果,这就是PCA降维,可以百度一下;

(横线注解:

矩阵的相似对角化:就是将原矩阵化为对角矩阵,且对角矩阵对角线上的每个元素都是原矩阵的特征值。

方法:

http://wenku.baidu.com/link?url=vDLXD-qY20oEAG5EQet9t0T0Pjj2vuSLVny6_jIkeO1mHczJ1HZUmdvUw2ElpghyuGscITlA5Y2k91uu7gJgNWnStnJKFuRGWSsuOcjp4hO

第10页,寻找待对角化矩阵的An的n个线性无关的特征向量组成的列构成可逆矩阵T,对角元素为各个列向量对应的特征值


一般物理上则是把对角化作为正交对角化或者酉变换对角化。因为正交阵(酉阵)有其良好的单位正交性,而且这种对角化方式保留了矩阵本身的关于特征值(谱)的重要信息,在进行理论计算中尤为方便。顺便提一句,在物理学中,很多矩阵都具有良好的性质,特别是对称性,这使得矩阵总是可以被对角化的。

(另:一般来说,对角化就指的是相似对角化,如果是其他类型的对角化,比如正交对角化、合同对角化,一般会明说的。不加说明的话就是相似对角化。)



那么模式识别讲的特征向量是什么呢,这个是一个截然不同的概念,模式识别重在分类,分类用什么数据呢,当然是特征向量,这个特征指的是,你分类物体的特征,如人脸,指纹,那你就可以从这些图片上面提取;那提取的这些数据就构成了你物体的一个特征,这就是特征向量;当然,可能你提取的特征向量太多维,那么这个时候,为了计算简便,你就需要降维,就可以通过上面所讲的PCA算法;通过降维后的数据进行计算。
所以,这是两种截然不同的概念

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值