机器学习
文章平均质量分 76
_L_LIU_L_
这个作者很懒,什么都没留下…
展开
-
Sparsity and Some Basics of L1 Regularization
Sparsity 是当今机器学习领域中的一个重要话题。John Lafferty 和 Larry Wasserman 在 2006 年的一篇评论中提到:Some current challenges … are high dimensional data, sparsity, semi-supervised learning, the relation between computat转载 2013-06-01 20:46:16 · 534 阅读 · 0 评论 -
非负矩阵分解(NMF,Nonnegtive Matrix Factorization)
发现写关于非负矩阵的博文还是蛮多的,还是以自己的角度总结一下自己的最近看的若干东西以及对非负矩阵分解有用的一些资料链接。 早在1999年,著名的科学杂志《Nature》刊登了两位科学家D.D.Lee和H.S.Seung对数学中非负矩阵研究的突出成果。其文章为《Learning the parts of objects by non-negative matrix factori转载 2014-03-19 22:33:08 · 1878 阅读 · 0 评论 -
最优化算法
最优化领域中的方法虽然“多如牛毛”,但是总体上还是沿着一条“主线”发展的。这里按照时间顺序对这条“最优化之路”进行简要介绍:1.1 最速下降法(梯度法):即以负梯度方向作为目标函数极小化方法的下降方向。首先将目标函数进行泰勒展开::代表第k个点的自变量(向量);:单位方向(向量),即|d|=1;:步长(实数);:目标函数在Xk这一点的梯度(导转载 2014-03-17 21:50:50 · 1836 阅读 · 0 评论 -
KNN(K近邻算法)
算法概述: 简单来说,KNN通过测量不同特征值之间的距离进行分类。KNN不需要训练模型,其输入是带标签的特征数据集,每一个数据是由其不同的属性构成的向量。对于未知标签的待分类数据,将其特征与训练数据集中的每一个数据进行相似性度量,然后获得最相近的K个特征数据的标签,其中出现最多的标签作为待分类数据的可能标签。算法思路:1)计算已知类别数据集中的点与当前点之间的距离;原创 2014-12-27 10:37:04 · 688 阅读 · 0 评论