人工智能在近几年非常流行,在社会的方方面面应用发挥着重要作用。人工智能的深度学习,背后就是数学基础。包含了线性代数,高等数学,概率论。本系列文章就相关的概念理论作系列的记述。
一、标量、向量、矩阵和张量
标量就是一个单独的数,例如1,2,只有大小没有方向。向量是一组数,有大小和方向,例如在一个平面坐标上的一个点(1,2),多维的向量表示为(1,2,3,4......)。矩阵是一个二维数组,由行和列组成,我们可通矩阵的行和列索引取得矩阵的每个元素A(i, j)。张量可以理解为每个元素的坐标超过二维的矩阵,假设某张量元素在一个三维空间,即是每个元素可表示为A(i, j, k)。
二、向量的加减和乘数
向量的相加,只有相同维度的向量才能相加。把两个向量的分量依次相加,得到一个新向量:
向量的乘数,向量和一个标量相乘,也是向量的每个分量与标量相乘即可。
向量的减法,实际由向量的加法和乘数推导而来。
例如,, a - b = a + (-1)*b =
三、向量的点积和叉积
向量的点积又叫内积,向量的点积是一个标量。如果A和B都是n维向量,它们的点积就是分量的乘积之和。
假设 ,
点积的几何意义是两者的模乘以两者的夹角余弦。
点积的作用:(1) 计算向量间的夹角
(2) 判断向量的方向
(3) 判断正交性
(4) 求向量的分量
向量的叉积又叫外积,我们将向量的叉积定义为A x B 或,实际上这不是乘法,假设:
,
叉积的几何意义是两个向量为邻边的平行四边形的面积。假设两个向量A和B,夹角为,以这两个向量围成的平行四边形的面积为
叉积的作用:(1) 计算平行六面体的体积
(2) 判断点是否共面
(3) 计算法向量
下篇文章将会记述下深度学习上的距离度量和作用。