AI数学
文章平均质量分 92
今日说"法"
韦韦
展开
-
AI数学(第二季)
目录第四章:线性代数秩=基数=极大无关组的向量数 =坐标轴的轴数=空间维数向量内积向量正交(向量两两垂直)规范正交基(单位坐标轴)第五章:特征值与特征向量AX=人X的理解 在机器学习中我们以特征向量为方向,特征值为重要程度大小来进行研究(因为他是数据集所构成的线性空间经过一定变换后不变的向量 用其来研究前因后果比较方便)特征空间 SVD矩阵分解:将大矩阵分解为小矩阵基变换编辑 特征值分解(将大矩阵化为小矩阵,思想是找几个具有代表性的特征向量来代替原矩阵) svd矩阵分解SVD推导 第六章随机变量区别举例原创 2022-07-13 12:29:09 · 191 阅读 · 0 评论 -
AI数学(第一季)
为什么我们在求偏导数时,可以把其他变量当作常量,这个问题我们可以回想一下常量的定义,什么样的变量可以当作常量?显然是不变的变量就是常量。当有更多的自变量时,我们的目光就不能只是局限在二维而是更高维,怎么说呢?我们对某个变量求偏导只是在哪个变量的坐标轴方向发生变化,而不会对在别的维度的变量造成影响。方向导数是在函数定义域的内点对某一方向求导得到的导数,一般为二元函数和三元函数的方向导数。方向导数可分为沿直线方向和沿曲线方向的方向导数。 梯度:某一点中梯度向量的方向是函数值变化率最大的方向(第二幅图右下原创 2022-07-10 22:39:29 · 106 阅读 · 0 评论