线性代数
文章平均质量分 88
鹏哥聊AI
模达科技技术总监,All In AI坚定信念者和践行者,欢迎关注公众号:modatechsub
展开
-
主成分分析PCA找寻数据“灵魂”-线性代数(4)
主成分分析(PCA)核心思想是将高维数据转换为低维数据,同时尽可能保留原始数据的主要信息,主要过程是将原始数据中的所有变量通过线性变换后,按照方差大小进行排序,与奇异矩阵的奇异值类似,方差越大,保留数据中信息越多,按此顺序选取少数几个互不相关(正交)的关键变量,这些关键变量称为主成分,也就是该部分数据的“灵魂”。,如下图所示,假如数据点的分布在y轴坐标上基本没什么差异,而在x轴上的距离相对比较大(一般用方差表示距离大小),则可以只选取x轴坐标的数值表示数据分布的主要情况。原创 2024-08-31 11:49:15 · 1229 阅读 · 0 评论 -
用矩阵分解找寻数据“灵魂”-线性代数(3)
通过奇异值分解(SVD),我们可以将原始数据矩阵分解为三个矩阵的乘积,其中,对角矩阵Σ上的奇异值表示了各个特征的重要性。通过上述内容,我们将常见的特征分解(Eigenvalue Decomposition, EVD)、奇异值分解(Singular Value Decomposition, SVD)的定义、计算实例和应用进行了说明,虽然该部分内容不是解决实际问题的完整方案,但却是理解特征提取、数据降维和噪声去除等常见人工智能数据过程的核心原理,要想筑牢理论基础,必须要对上述内容了然于胸。原创 2024-08-25 14:23:29 · 1154 阅读 · 0 评论 -
AI线性算法的“视觉”理解-线性代数(2)
既然从“视觉”角度来理解线性代数,那么线性代数的“视觉”表示和线性变换是主要的两个概念,但是在高维空间中,可视化变得非常困难,只能通过数学的方法来理解它们,本文主要以线性代数的二维和三维视觉来进行探讨,读者可以以此来理解和类推更高维情况。对于二维实数R向量空间可以想象成为在二维空间所有点(x,y)的集合,组成一个无限延伸的二维平面,同样的,对于三维实数R向量空间可以想象成为在三维空间所有点(x,y,z)的集合,组成一个无限延伸的三维平面,而如果向量元素为整数,则为向量空间为离散型。向量a乘以标量r等于在。原创 2024-08-19 13:50:14 · 882 阅读 · 0 评论 -
AI世界的“语言”-线性代数(1)
线性代数作为数学的一个分支,主要是面向连续数学,而非离散数学,所以传统的计算机技术涉及的并不多,但是掌握好线性代数对于理解和优化机器学习算法是很有必要的,尤其对于深度学习算法而言。线性代数可以看成是人工智能世界通用的一种“语言”。就像人用自然语言(中文、英文等)来沟通交流一样,线性代数可以类比成AI系统中用来表示、交流、处理和计算数据的“语言”。向量是单词: 每个向量就像是自然语言的一个单词,用来表示数据中的一个特征。例如,在图像识别中,一个向量可以表示图像的一个像素点。矩阵是句子。原创 2024-08-12 10:30:58 · 683 阅读 · 0 评论