知识:PCA降维

参考了两篇关于PCA的帖子:

        CodingLabs - PCA的数学原理

        【机器学习】降维——PCA(非常详细) - 知乎

里面讲的比较详细,我只做个小简化

PCA(Principal Component Analysis):用于高维数据的降维,可用于提取数据的主要特征分量

这里需要一些数学的基础知识:

1. 内积和投影

        设 A=(x1,y1),B=(x2,y2),那么A·B = x1*x2 + y1*y2 =|A|*|B|*cos(α)(α为AB向量的夹角)

如果 向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度

A·B = x1*x2 + y1*y2 =|A|*cos(α)

2. 基 

根据上面的公式 我们就能看出|B|为1时,可以当作一个基向量,那么 |A|*cos(α) 也就是向量 A 在基向量 B 上的投影。

那么对于向量 (3,2) 这个点来说,在 和  这组基下的坐标:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值