- 博客(2)
- 资源 (1)
- 问答 (1)
- 收藏
- 关注
转载 奇异值分解(SVD)原理详解
转自:点击进入一、奇异值与特征值基础知识:特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧:1)特征值:如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量。特...
2019-01-30 16:46:26 4321
原创 PCA降维求特征值的原因
我看了几篇文章,知道了PCA降维思路,但始终不能理解,为什么通过求其特征值,然后去掉较小的特征值,再根据特征值求出特征向量最终能达到降维的目的。 如果你有相同的困惑,看下面的内容一定会有帮助。看之前你需要了解协方差矩阵。了解特征值的求解方式。PCA做的事情:去噪声和冗余噪声: 样本中某个主要维度A,能够代表原始数据,但是由于维度A与其他维度有联系,而其他维度又给我们造成干扰,此时可以通过P...
2019-01-20 17:44:38 1647 4
Linux版FastDFS相关jar包
2018-07-06
TA创建的收藏夹 TA关注的收藏夹
TA关注的人