机器学习中的数学
仰望星空的小狗
这个作者很懒,什么都没留下…
展开
-
奇异值分解(SVD)学习笔记
在机器学习或数据分析中,有时样本数据会比较大,这样对计算机的内存会有很大的负担。此时,通过一些方法来提取数据中的主要成分,而忽略其中可以忽略不计的成分,将大大减少计算量。本文讲简单介绍奇异值分解(SVD)方法。原创 2017-09-30 15:51:00 · 763 阅读 · 0 评论 -
凸优化相关概念学习笔记
前言由于凸优化具有一些很好的性质,比如:凸问题中的局部最优解就是全局最优解凸优化理论中的拉格朗日对偶为凸优化算法的最优性与有效性提供了保证并且,在机器学习中的很多模型在先辈们的研究下,正好符合凸优化模型。在大多数优化问题中,只要转化为凸问题,那么基本上是可以解决的。凸优化问题中的基本概念与性质凸集的概念集合C内任意两点间的线段均在集合C内,则称集合C为凸集。任意x1,原创 2017-10-06 17:47:11 · 801 阅读 · 1 评论 -
梯度下降法学习笔记
1 相关概念梯度——表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快。对于一元函数y=f(x),其梯度为∂y∂x,对于二元函数f(x,y),其梯度为(∂f∂x,∂f∂y)y=f(x),其梯度为\frac{\partial y}{\partial x},对于二元函数f(x,y),其梯度为(\frac{\partial f}{\partial x},原创 2017-11-18 21:56:40 · 436 阅读 · 0 评论 -
矩阵乘法的几何理解
矩阵乘法对于一个向量aaaa=[−1,2]Ta=[-1,2]^{T}a=[−1,2]T当对向量aaa乘以一个矩阵BBB(4)B=[13−20] B=\begin{bmatrix} 1 & 3 \\ -2 & 0 \end{bmatrix} \tag{4}B=[1−230](4)即(4)[13−20][−12]=[52]\begin{bma...原创 2019-05-03 08:35:30 · 997 阅读 · 0 评论