机器学习算法
文章平均质量分 96
关于ML
Grack_skw
这个作者很懒,什么都没留下…
展开
-
Numpy实现LDA
LDA与PCA的区别如下表:LDA的原理如下:LDA降维的流程总结。 输入:数据集D={(x1,y1),(x2,y2),...,((xm,ym))},其中任意样本xi为n维向量,yi∈{C1,C2,...,Ck},降维到的维度d。 输出:降维后的样本集$D′$ 1) 计算类内散度矩阵Sw2) 计算类间散度矩阵Sb3) 计算矩阵Sw^−1*Sb4)计算Sw^−1*Sb的最大的d个特征值和对应的d个特征向量(w1,w2,...wd),得到投影矩阵W5) 对样本集中的每一个样本.原创 2020-08-06 17:10:43 · 618 阅读 · 0 评论 -
PCA方法Python代码实现
关于PCA方法的原理这里就不介绍了,网络上很多文章写得都很好,这里给出以三维点集的PCA为例,在python里实现PCA方法。PCA方法的主要步骤是:数据中心化 计算协方差矩阵 根据协方差矩阵计算出特征值和特征向量python代码如下def pca(x): # Data matrix X, assumes 0-centered # print x.shape n, m = x.shape x = x - np.mean(x, axis=0) # #原创 2020-06-06 17:22:24 · 1847 阅读 · 0 评论 -
Python实现kd树
参考链接:https://www.cnblogs.com/pinard/p/6061661.html?utm_source=itdadao&utm_medium=referralKD树建树采用的是从m个样本的n维特征中,分别计算n个特征的取值的方差,用方差最大的第k维特征nknk来作为根节点。对于这个特征,我们选择特征nknk的取值的中位数nkvnkv对应的样本作为划分点,对于所有第k维特征的取值小于nkvnkv的样本,我们划入左子树,对于第k维特征的取值大于等于nkvnkv的样本,我们划入右.原创 2020-06-17 10:57:22 · 2241 阅读 · 0 评论