- 博客(8)
- 资源 (6)
- 收藏
- 关注
转载 核PCA——从理论到实现
核PCA——从理论到实现1. PCA方法:设X=[x1,x2,…xN],x∈Rd,为d维样本空间的N个向量h=i。协方差矩阵:C=1NXXT可以做特征值分解C=UΛUT,其中U为特征矩阵,Λ是特征值矩阵。若只保留k个维度,只需要以k个特征向量为基矢,将所有的向量向他们投影,就可以了。对于二维的情况如下图(来自wikipedia,[2])
2015-05-29 09:46:32 7539 2
转载 机器学习问题方法总结
机器学习问题方法总结转自 http://www.cnblogs.com/zhangchaoyang/archive/2012/08/28/2660929.htmlData Mining机器学习问题方法总结大类名称关键词有监督分类决策树信息增益
2015-05-22 00:00:01 431
转载 线性代数导论4——A的LU分解
线性代数导论4——A的LU分解一、A=LA分解消元的目的,只是为了更好正确的认识矩阵的概念,A=LU是最基础的矩阵分解。L是下三角矩阵,U是上三角矩阵。A通过消元最终得到U,L即A与U之间的联系。先看A矩阵通过初等矩阵消元得到U:这里要求的是A=LU,L和消元矩阵E是什么联系呢?L与E互为逆矩阵。消元矩阵的逆是比较容易求的 有时我们将U中的主元提取出来,
2015-05-21 23:39:15 1083
转载 核函数
出发点:如何让线性不可分的数据变得线性可分呢?例子是下面这张图:我们把横轴上端点a和b之间红色部分里的所有点定为正类,两边的黑色部分里的点定为负类。试问能找到一个线性函数把两类正确分开么?不能,因为二维空间里的线性函数就是指直线,显然找不到符合条件的直线。但我们可以找到一条曲线,例如下面这一条:显然通过点在这条曲线的上方还是下方就可以判断
2015-05-18 10:53:55 591
转载 线性代数导论3——乘法与逆矩阵
线性代数导论3——乘法与逆矩阵本文是Gilbert Strang的线性代数导论课程笔记。课程地址:http://v.163.com/special/opencourse/daishu.html第三课时:乘法与逆矩阵本课时先讲解矩阵乘法运算,然后是逆矩阵一、矩阵乘法:5种方法Am×n Bn×p = Cm×p,A列必须等于B的行数1)常规方法,行列点乘法:C=A
2015-05-06 09:40:47 1116
转载 线性代数导论2——矩阵消元
线性代数导论2——矩阵消元本文是Gilbert Strang的线性代数导论课程笔记。课程地址:http://v.163.com/special/opencourse/daishu.html第二课时:矩阵消元本课时的目标是用矩阵变换描述消元法。核心概念是矩阵变换。一、消元法消元法:将主对角线上的主元固定(0不能做主元),把主元下面的元素消为0。过程
2015-05-06 09:23:06 719
转载 线性代数导论1——方程组的几何解释
线性代数导论1——方程组的几何解释本文是Gilbert Strang的线性代数导论课程笔记。课程地址:http://v.163.com/special/opencourse/daishu.html第一课时:方程组的几何解释一、线性方程组的两种理解方式:行图像和列图像对于方程组:我们可以表示成矩阵形式: 系数矩阵A,未知数向量x,右
2015-05-06 08:53:18 595
转载 机器学习中有关数学的一些推荐书籍
数学学习(林达华原著) 这里说说几本我看过后觉得不错的数学教科书。1. 线性代数 (Linear Algebra):我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要。这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的。我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是Introd
2015-05-06 08:40:44 2693
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人