【降维PCA算法】 机器学习公式推导计算+详细过程 (入门必备)

PCA算法

  • PCA算法:主成分分析是一种非监督的降维方法,降维可以做特征筛选,降低训练复杂度。

  • 在信号学里,信噪比越大,说明数据质量越好。其中信号有较大的方差,噪声有较小的方差。

  • PCA正好可以借鉴信噪比这一理论,让数据在主轴上的投影方差最大。

方差公式

V ( x ) = 1 m ∑ i = 1 m ( x i − x ‾ ) 2 V(x) = \frac{1}{m} \sum_{i=1} ^ m (x_i - \overline{x})^2 V(x)=m1i=1m(xix)2

PCA推导

  • 求方差最大化,可以令 x ‾ = 0 \overline{x} = 0 x=0

V ( x ) = 1 m ∑ i = 1 m x i 2 V(x) = \frac{1}{m} \sum_{i=1} ^ m x_i ^2 \quad V(x)=m1i=1mxi2

  • 将所有样本映射到主轴 w = ( w 1 , w 2 ) w = (w_1, w_2) w=(w1,w2),使 V V V最大,即

V ( x ) = 1 m ∑ i = 1 m ∣ ∣ x i ∣ ∣ 2 V(x) = \frac{1}{m} \sum_{i=1} ^ m || x^i ||^2 \quad V(x)=m1i=1mxi2

  • 样本点$ X^i = (X^{i}_1, X^{i}_2) 到 主 轴 到主轴 w = (w_1, w_2) $的距离表示

X i w = ∣ ∣ X i ∣ ∣ ∗ ∣ ∣ w ∣ ∣ ∗ c o s θ X^i w = ||X^i||*||w||*cos \theta \quad Xiw=Xiwcosθ

X i w = ∣ ∣ X i ∣ ∣ X^i w = ||X^i|| \quad Xiw=Xi

** 损失函数 **

m a x V ( x ) = 1 m ∑ i = 1 m ( X i w ) 2 max \quad V(x) = \frac{1}{m} \sum_{i=1} ^ m ( X^i w )^2 \quad maxV(x)=m1i=1mXiw2

m a x V ( x ) = 1 m ∑ i = 1 m ( X 1 i w 1 + X 2 i w 2 + X 3 i w 3 + … + X n i w n ) 2 max \quad V(x) = \frac{1}{m} \sum_{i=1} ^ m ( X^{i}_1 w_1 + X^{i}_2 w_2 + X^{i}_3 w_3 + … + X^{i}_n w_n)^2 \quad maxV(x)=m1i=1mX1iw1+X2iw2+X3iw3++Xniwn2

m a x V ( x ) = 1 m ∑ i = 1 m ( ∑ j = 1 n X j i w j ) 2 max \quad V(x) = \frac{1}{m} \sum_{i=1} ^ m ( \sum_{j=1} ^ n X^{i}_j w_j )^2 \quad maxV(x)=m1i=1mj=1nXjiwj2

梯度上升法求最优解

对损失函数求导

∂ V ( x ) ∂ w j = 2 m ( X w ) T X \frac{\partial V (x)}{\partial w_j} = \frac{2}{m} ( X w)^T X \quad wjV(x)=m2(Xw)TX

= 2 m X T ( X w ) = \frac{2}{m} X^T (X w) \quad =m2XTXw)

欢迎大家交流学习,任何问题都可以留言
  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值