差不多数学
文章平均质量分 59
沃·夏澈德
今天的明天是后天的昨天。----茨鲍勒·程德
展开
-
《机器学习线性代数基础:Python语言描述》读书笔记----对角矩阵
对角矩阵使用对角矩阵来描述某一个向量的空间变换有如下优点:一个n维列向量在n阶对角矩阵矩阵的作用下,其线性变换的方式仅仅反映在个个维度轴向上的长度拉伸,而不对应着平移或旋转变换,即Ax=[a1a2a3⋱an][x1x2x3⋮xn]=[a1x1a2x2a3x3⋮anxn]Ax = \begin{bmatrix}a_1&&&& \\ &a_2&&& \\ &&a_3&& \\ &&&\原创 2021-12-31 09:28:35 · 373 阅读 · 1 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----相似矩阵与相似变换
坐标取决于基底结合前面知识,可知,坐标的表示使是基于 基底的。书中给出一个例子:对于一个物体,它是客观存在的(类比:某个指定向量在空间中的绝对位置)。但是,如果换一个角度 看这个物体(类比:在空间中选取不同的基底),那么从不同角度看,则会看到不同的效果(类比:不同基底下对应的不同坐标值)。描述线性变换的矩阵也取决与基底对于一个向量而言,其空间位置改变,选取的基底不同,表征其线性变换的矩阵就不同。这里可以结合文章《计算基底变换后坐标》看。相似矩阵与相似变换针对指定向量的同一个空间变换,用来在不同原创 2021-12-24 21:57:04 · 943 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----变换基底时的坐标换算
同一个向量在不同基底下的坐标计算。坐标的表示是基于基底的先来个简单的例子:在默认基底(a=[1,0]T,b=[0,1]T(a=[1,0]^T,b=[0,1]^T(a=[1,0]T,b=[0,1]T下,有向量u=[3,3]Tu=[3,3]^Tu=[3,3]T,u的完整表达其实为u=3a+3b=3[10]+3[01]=[3∗1+3∗03∗0+3∗1]=[33]u = 3a+3b=3\begin{bmatrix}1\\0\end{bmatrix}+3\begin{bmatrix}0\\1\end{bmat原创 2021-12-17 21:57:14 · 3210 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----线性方程组的解
有线性方程化为矩阵乘法的表现形式Ax=[a11a12⋯a1na21a22⋯a2n⋮⋮⋱⋮am1am2⋯amn][x1x2⋮xn]=[b1b2⋮bm]=bAx = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\a_{21} & a_{22} & \cdots & a_{2n} \\\vdots & \vdots & \ddots & \vdots \\a_{m1}原创 2021-12-09 08:53:38 · 849 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----逆矩阵
逆矩阵设A是一个n阶矩阵,若存在另一个n阶矩阵B,使得: AB=BA=E ,则称方阵A可逆,并称方阵B是A的逆矩阵。逆矩阵的存在性不是每一个矩阵都存在逆矩阵的。因为矩阵的本质是映射,如果在映射过程中矩阵A压缩了矩阵,那么原空间中会有无数个点对应目标空间的一个点,显然不可逆。在矩阵A对矩阵进行”升维“时,因为A不可能覆盖目标空间,因此目标空间中会有无数个点与原空间的一个点对应,也不可逆。逆矩阵的存在条件方阵A的各个列向量线性无关,则映射时空间不会被压缩,即A的逆矩阵存在。不可逆矩阵也被称为奇异矩阵原创 2021-12-07 21:19:50 · 1330 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----矩阵与空间映射
矩阵与空间映射矩阵其实描述了空间中的映射矩阵与空间映射由于矩阵乘法的作用,原始向量的空间位置甚至其所在空间的维度和形状都发生了改变,这便是矩阵乘法的空间映射作用。Ax=[a11a12⋯a1na21a22⋯a2n⋮⋮⋱⋮am1am2⋯amn][x1x2⋮xn]=[a11x1+a12x2+⋯+a1nxna21x1+a22x2+⋯+a2nxn⋮am1x1+am2x2+⋯+amnxn]=x1[a11a21⋮am1]+⋯+xn[a1na2n⋮amn]Ax = \begin{bmatrix} a_{11}原创 2021-12-05 21:41:14 · 1194 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----矩阵与向量
矩阵与向量矩阵由 m × n 个数aija_{ij}aij排成的m行n列的数表称为m行n列的矩阵,简称m × n矩阵。可以看作是n个m维列向量从左到右并排摆放;行向量视角同理。矩阵与向量向量可以看作是一维矩阵:n维的列向量可以看作是一个n×1的矩阵。矩阵乘以向量首先,根据上面所述可知,这其实是满足矩阵间运算法则的,因此具体法则为:[a11a12⋯a1na21a22⋯a2n⋮⋮⋱⋮am1am2⋯amn][x1x2⋮xn]=[a11x1+a12x2+⋯+a1nxna21x1+a22x2+⋯+a原创 2021-12-03 17:18:26 · 305 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----基底
向量与基底对于二维向量u=[45]u=\begin{bmatrix} 4 \\ 5 \end{bmatrix}u=[45]来说,一般默认其表示原点到坐标(4,5)的一条有向线段。这其实基于一个默认的前提:以ex=[10]e_x=\begin{bmatrix} 1 \\ 0 \end{bmatrix}ex=[10],ey=[01]e_y=\begin{bmatrix} 0 \\ 1 \end{bmatrix}ey=[01]作为基准。因此,u的完整的表达为:u=4ex+5ey=4[10]+5[01原创 2021-12-02 21:24:24 · 998 阅读 · 0 评论 -
《机器学习线性代数基础:Python语言描述》读书笔记----向量
什么是向量在数学中,向量(也称为欧几里得向量、几何向量、矢量),指具有大小(magnitude)和方向的量。直观地说,把一组数字排列成一行或一列,就成为向量。如[4,5],可以理解成一个二维空间的坐标点,也可以理解为从原点到这一点的有向线段。向量的加法[abc]+[def]=[a+db+ec+f]\begin{bmatrix} a \\ b \\ c \end{bmatrix} + \begin{bmatrix} d \\ e \\ f \end{bmatrix} =\begin{bmatri原创 2021-11-30 21:59:15 · 959 阅读 · 0 评论 -
L1,L2范数学习笔记
L1范数作用:使解变为一个稀疏解,降低过拟合。为什么会参产生稀疏解 参考https://zhuanlan.zhihu.com/p/129024068 因为在导数在0处可能是极小点(可能性受惩罚系数影响),因此容易收敛到极小点,也就是0处,产生稀疏。为什么稀疏解可以降低过拟合在特征很多,或者模型很复杂,但训练数据很少时,程序很容易因为训练过度而过拟合,通过稀疏,参数中为0的位非常多,这些位对应的特征是不起作用的,起作用的只有少数非0位的...原创 2021-06-01 17:55:35 · 333 阅读 · 0 评论 -
差不多数学----EM算法的思想与简单理解
深入的可以看原论文以及李航的统计学习方法。以下是一些我参考的博文:感谢大佬们的无私分享。------------------------------------------------------手动分割---------------------------------------------------------------------------------------↓↓↓以下内容,纯属个人理解,也不知道对不对的,正如题目所示,差不多吧。。。。↓↓↓-------------.原创 2020-10-10 23:00:59 · 399 阅读 · 1 评论 -
差不多数学系列----最大似然估计
最大似然估计--------------------------------------------------手动分割线--------------------------------------------------------------先来一段百度复制来的原理,有趣的是百度百科上最大似然估计和极大似然估计居然是两个不同的页面,尽管说的是同一个东西:给定一个概率分布D,假定其概率密度函数(连续分布)或概率聚集函数(离散分布)为fD,以及一个分布参数θ,我们可以从这个分布中抽出一个具有n个原创 2020-10-09 15:36:01 · 3344 阅读 · 0 评论