![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
数学
薛定谔的炼丹炉!
这个作者很懒,什么都没留下…
展开
-
SVD求解过程以及在降维中应用
原文链接:https://www.cnblogs.com/pinard/p/6251584.html 奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。 1. 回顾特征值和特征向量 我们首先回顾下特征值和特征向量的定义如下:Ax=转载 2020-09-02 16:29:53 · 322 阅读 · 0 评论 -
SVD以及用其实现推荐算法
原文链接:https://www.jianshu.com/p/4e2b20333d38 SVD解析以及用其实现推荐算法 标签:推荐算法 [TOC] 首先介绍一下SVD,是对一个$mn$规模矩阵进行奇异值分解,最后得到的为: $$A = U∑V^T$$ 其中$V$是$nn$的正交矩阵,$U$是$mm$的正交矩阵,$∑$是$mn$的对角矩阵 特征值分解和奇异值分解两者有着很紧密的关系,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧 1. 特征值分解 如果说一个向量v是转载 2020-09-02 16:20:48 · 514 阅读 · 0 评论 -
(牛逼Plus)SVD奇异值分解
原文链接:https://blog.csdn.net/qq_32742009/article/details/82286434 奇异值分解,就是把矩阵分成多个“分力”。奇异值的大小,就是各个“分力”的大小。 之前在介绍矩阵特征值与特征向量的时候,也是以运动作为类比。 一、通俗理解奇异值 1、翻绳 对于翻绳的这个花型而言,是由四只手完转载 2020-09-02 16:07:25 · 812 阅读 · 0 评论