PCA梯度上升法

在这里插入图片描述
首先,取得数据
求一列的均值:在这里插入图片描述
这个函数是用来求x的每一个元素减去对应列均值的最后矩阵的,其中,当axis=0时,求的是列的均值,当axis=1时,求的是行的均值。
在这里插入图片描述
一、这是我们的目标函数~:1/m*(x*w)^2
二、初始化w向量在这里插入图片描述
其中,初始化的w向量不能为零向量(虽然在昨天学的梯度下降法中是可以的)

三、不能使用StanderdScaler标准化变量,因为PCA求主成分的时候是想求一个轴,使样本映射上去的时候方差最大,但标准化之后方差就唯一了,方差的最大值就不存在了
四、我们求梯度的方法,在这里我们列举了两种:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
两种方法,我们可以自由选择调用到gradient_ascent,来找寻极大值

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值