![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器一
你是我的阳光呐
相信努力过后,美丽明天
展开
-
SVD奇异值分解
from sklearn.datasets import load_iris from sklearn.decomposition import TruncatedSVD #截断SVD #读入数据集 data = load_iris() x = data.data y = data.target svd = TruncatedSVD(n_components=3) x_= svd.fit_transform(x) print("x_.shape",x_.shape) print("求解得到的奇异值(特原创 2021-03-19 15:04:58 · 128 阅读 · 0 评论 -
PCA底层简单版本,容易学习
PCA底层学习 前面是PCA的简单知识,不感兴趣可以直接看代码部分 PCA降维是线性降维有损失的,我们降维的目的是简化机器模型的训练和预测,对高维数据进行可视化,实现数据的压缩 PCA优缺点: 优点: 保留绝大部分数据 消除评价指标之间的相关影响 计算方法简单,易于实现 缺点: 主成分解释其含义往往具有一定的模糊性,不如原始变量的含义那么清楚,确切 代码思路: 降维简单来说就是将一个旧数据(old_data)经过降维变成了新数据(new_data) x_new=x_old.dot(U)原创 2021-03-19 10:44:54 · 147 阅读 · 0 评论