机器学习
文章平均质量分 95
wukk007
这个作者很懒,什么都没留下…
展开
-
机器学习中的数学-强大的矩阵奇异值分解(SVD)及其应用
一、奇异值与特征值基础知识: 特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。先谈谈特征值分解吧: 1)特征值: 如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式: 这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特原创 2013-08-31 08:42:33 · 1144 阅读 · 0 评论 -
大规模优化算法 - LBFGS算法
http://blog.sina.com.cn/s/blog_eb3aea990101gflj.html转载 2014-05-31 14:44:33 · 1548 阅读 · 1 评论 -
Deep Learning in NLP (一)词向量和语言模型
转自:http://licstar.net/archives/328这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。 Deep Learning 算法已经在图像和音频领域取得了惊人的成果,但是在 NLP 领域中尚未见到如此激动人心的结果。关于这个原因,引一条我比较赞同的微博。@转载 2014-05-31 19:57:32 · 941 阅读 · 0 评论 -
机器学习算法与Python实践之(七)逻辑回归(Logistic Regression)
转自:http://blog.csdn.net/zouxy09/article/details/20319673转载 2014-05-31 15:27:06 · 1038 阅读 · 0 评论 -
logistic学习笔记
来自:http://www.cnblogs.com/zichun-zeng/p/3824745.html转载 2014-07-07 11:40:26 · 932 阅读 · 0 评论 -
Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”
来自:http://www.52nlp.cn/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D%A6%E7%A6%8F%E5%A4%A7%E5%AD%A6%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AC%AC%E5%9B%9B%E8%AF%BE%E5%A4%9A%E5%8F转载 2014-07-08 19:22:01 · 1270 阅读 · 0 评论 -
-机器学习算法-最小二乘法与回归[4]
来自:http://blog.csdn.net/myhaspl/article/details/9323317多元线性回归一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行转载 2014-07-08 19:14:21 · 827 阅读 · 0 评论 -
Python机器学习——线性模型
摘要 : 最近断断续续地在接触一些python的东西。按照我的习惯,首先从应用层面搞起,尽快入门,后续再细化一 些技术细节。找了一些资料,基本语法和数据结构搞定之后,目光便转到了scikit-learn这个包。最近断断续续地在接触一些python的东西。按照我的习惯,首先从应用层面搞起,尽快入门,后续再细化一 些技术细节。找了一些资料,基本语法和数据结构搞定之后转载 2014-07-30 17:57:34 · 1065 阅读 · 0 评论 -
Machine Learning分类总结 和机器学习的四个等级
两个网站:推荐http://www.mlsurveys.com/翻译 2014-08-21 14:08:31 · 4518 阅读 · 0 评论 -
支持向量机SVM(一)
支持向量机SVM(一)【转载请注明出处】http://www.cnblogs.com/jerrylead1 简介支持向量机基本上是最好的有监督学习算法了。最开始接触SVM是去年暑假的时候,老师要求交《统计学习理论》的报告,那时去网上下了一份入门教程,里面讲的很通俗,当时只是大致了解了一些相关概念。这次斯坦福提供的学习材料,让我重新学习了一些SVM知识。我看很多正统的讲法都是从V转载 2014-08-15 10:48:49 · 571 阅读 · 0 评论 -
用Python做单变量数据集的异常点分析
http://my.oschina.net/taogang/blog/279402转载 2014-10-08 14:32:51 · 3717 阅读 · 0 评论 -
时间序列数据挖掘
来自:http://blog.sciencenet.cn/blog-34250-287173.html转载 2014-10-10 17:16:36 · 8813 阅读 · 0 评论 -
机器学习(Machine Learning)&深度学习(Deep Learning)资料
来自:https://github.com/ty4z2008/Qix/blob/master/dl.md转载 2014-10-30 13:51:31 · 1661 阅读 · 1 评论 -
python机器学习之神经网络(一)
来自http://blog.csdn.net/cui134/article/details/25632981转载 2014-11-03 18:11:59 · 1583 阅读 · 0 评论 -
python机器学习之神经网络(二)
来自:http://blog.csdn.net/cui134/article/details/26823101由于Rosenblatt感知器的局限性,对于非线性分类的效果不理想。为了对线性分类无法区分的数据进行分类,需要构建多层感知器结构对数据进行分类,多层感知器结构如下:该网络由输入层,隐藏层,和输出层构成,能表示种类繁多的非线性曲面,每一个隐藏层都有一个激活函数转载 2014-11-03 18:13:06 · 1757 阅读 · 0 评论 -
python机器学习之神经网络(三)
来自http://blog.csdn.net/cui134/article/details/26841073前面两篇文章都是参考书本神经网络的原理,一步步写的代码,这篇博文里主要学习了如何使用neurolab库中的函数来实现神经网络的算法。首先介绍一下neurolab库的配置:neurolab下载地址:进入该地址选择你所需要的版本进行下载,下载完成后解压。转载 2014-11-03 18:14:04 · 1771 阅读 · 0 评论 -
机器学习最佳入门学习资料汇总
转自:http://www.52ml.net/15964.html这篇文章的确很难写,因为我希望它真正地对初学者有帮助。面前放着一张空白的纸,我坐下来问自己一个难题:面对一个对机器学习领域完全陌生的初学者,我该推荐哪些最适合的库,教程,论文及书籍帮助他们入门?资源的取舍很让人纠结,我不得不努力从一个机器学习的程序员和初学者的角度去思考哪些资源才是最适合他们的。我为每种类型的转载 2014-06-08 16:09:46 · 682 阅读 · 0 评论 -
介绍几个图论和复杂网络的程序库 —— BGL,QuickGraph,igraph和NetworkX
刚加入复杂网络圈子,暂时还没有成熟的研究内容,先发个资料性的东西占坑:)作复杂网络研究离不开对各种实际或模拟网络的统计、计算、绘图等工作。对于一般性的工作,我们可以用Pajek、Netdraw和Ucinet等软件完成。但对一些特殊应用(比如自己开发了一个新模型),现有的软件不能提供相应的建模或计算功能,这时就必须要通过编程的办法来解决问题了。在这篇文章中,向大家介绍我使用过转载 2014-04-26 11:21:46 · 1213 阅读 · 0 评论 -
感慨 ————
今天把Build, Compute, Critique,Repeat: Data Analysis withLatent Variable ModelsDavid M. Blei原创 2014-05-10 21:34:50 · 545 阅读 · 0 评论 -
奇异值分解(SVD) --- 几何意义
原文:We recommend a singular value decomposition关于线性变换部分的一些知识可以猛戳这里 奇异值分解(SVD) --- 线性变换几何意义奇异值分解( The singular value decomposition )该部分是从几何层面上去理解二维的SVD:对于任意的 2 x 2 矩阵,通过SVD可以将一个相互垂直的网格(orthog转载 2013-08-31 08:47:08 · 1434 阅读 · 0 评论 -
Mean-Field Variational Inference Made Easy
I had the hardest time trying to understand variational inference. All of the presentations I’ve seen (MacKay, Bishop, Wikipedia, Gelman’s draft for the third edition of Bayesian Data Analysis) are原创 2013-09-10 16:09:52 · 1687 阅读 · 0 评论 -
学习Machine Leaning In Action(四):逻辑回归
第一眼看到逻辑回归(Logistic Regression)这个词时,脑海中没有任何概念,读了几页后,发现这非常类似于神经网络中单个神经元的分类方法。书中逻辑回归的思想是用一个超平面将数据集分为两部分,这两部分分别位于超平面的两边,且属于两个不同类别(和SVM的想法有些相似),如下图:因此,一般的逻辑回归只能处理两分类问题,同时两个类别必须是线性可分的。对于线性不可分问原创 2013-10-15 10:22:48 · 856 阅读 · 0 评论 -
机器学习领域一些值得关注的人
M.I.Jordan 机器学习,统计学习业界大牛。Graphical model, Baysian learning, hierarchical http://www.cs.berkeley.edu/~jordan/D.Blei Jordan 的学生。2004年发明了LDA算法,HLDA等,一直到现在topic modelingd都很火 http://www.cs.原创 2013-10-16 21:34:35 · 864 阅读 · 0 评论 -
谈谈机器学习(Machine Learning)大家 .
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,并且仅局限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以不对的地方大家仅当一笑。Machine Learning 大家(1):M. I. Jordan在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐镇一方,在附近的两所名转载 2013-10-16 21:15:41 · 1189 阅读 · 0 评论 -
Variational Bayes
关键词] 贝叶斯推断,平均场理论,变分估计,贝叶斯推断,KL散度,确定性估计一、前言变分贝叶斯方法最早由Matthew J.Beal在他的博士论文《Variational Algorithms for Approximate Bayesian Inference》中提出,作者将其应用于隐马尔科夫模型,混合因子分析,线性动力学,图模型等。变分贝叶斯是一类用于贝叶斯估计和机器学习领域中近似计算转载 2013-11-20 09:59:22 · 2352 阅读 · 1 评论 -
最近收集的中科院研究生教学视频
[?][-]eD2k链接 帮助 | eMule官方 | eMule Fans 电骡爱好者 | eMule-Mods.de | 插件主页小波与滤波器组-28-中科院.iso 查源2.27GB[面向对象程序设计CPP]-29-中科院.iso 查源2.53GB[算法设计与分析-30讲]-中科院转载 2013-11-28 17:10:42 · 3999 阅读 · 0 评论 -
EM算法及其应用(代码)
最近上模式识别的课需要做EM算法的作业,看了机器学习公开课及网上的一些例子,总结如下:(中间部分公式比较多,不能直接粘贴上去,为了方便用了截图,请见谅)概要适用问题EM算法是一种迭代算法,主要用于计算后验分布的众数或极大似然估计,广泛地应用于缺损数据、截尾数据、成群数据、带有讨厌参数的数据等所谓不完全数据的统计推断问题。优缺点优点:EM算法简单且稳定,迭代能保证观察数据对数后验转载 2014-01-01 15:19:31 · 11569 阅读 · 1 评论 -
python 与算法
关于sage/python/maxima的介绍参看:study3_开源科学软件简介1、算法算法导论学习笔记:http://www.wutianqi.com/?cat=515杂项:http://blog.csdn.net/v_july_v/article/details/6543438随机化算法:http://www.wutianqi.com/?p=1742蒙特卡罗、原创 2014-01-09 15:00:50 · 1146 阅读 · 0 评论 -
MCMC,LDA,文本建模,来点干货(一)
Fri 27 September 2013 | in Study | tags: probabilitybayesmachine_learningstatisticsldamarkovmcmcevernote很久没写 blog 了,PyMoTW 也没想好下一个对象(不过这次有涉及到一些 matplotlib…),刚好最近啃完一篇关于文本建模的科普「LDA数学八卦」而且啃得痛苦无比,转载 2014-01-11 20:29:05 · 1954 阅读 · 0 评论 -
随机化算法1-5
已出连载:1.《随机化算法(1) — 随机数》2.《随机化算法(2) — 数值概率算法》3.《随机化算法(3) — 舍伍德(Sherwood)算法》4.《随机化算法(4) — 拉斯维加斯(Las Vegas)算法》正文:蒙特卡罗法(Monte Carlo method)是以概率和统计的理论、方法为基础的一种计算方法,将所求解的问题同一定的概率模型相联系,用电子计算机实现转载 2014-01-09 15:04:26 · 1651 阅读 · 0 评论 -
[综] 训练集(train set) 验证集(validation set) 测试集(test set)
在有监督(supervise)的机器学习中,数据集常被分成2~3个,即:训练集(train set) 验证集(validation set) 测试集(test set)。http://blog.sina.com.cn/s/blog_4d2f6cf201000cjx.html一般需要将样本分成独立的三部分训练集(train set),验证集(validation set)和测试集(test转载 2014-04-14 16:51:05 · 1336 阅读 · 0 评论 -
Python机器学习库
Python在科学计算领域,有两个重要的扩展模块:Numpy和Scipy。其中Numpy是一个用python实现的科学计算包。包括:一个强大的N维数组对象Array;比较成熟的(广播)函数库;用于整合C/C++和Fortran代码的工具包;实用的线性代数、傅里叶变换和随机数生成函数。 SciPy是一个开源的Python算法库和数学工具包,SciPy包含的模块有最优转载 2014-05-04 10:35:39 · 737 阅读 · 0 评论 -
常用采样方法
常用采样方法最近在学习 MCMC,一种特殊的采样方法,顺便把其他常用的方法了解了一下。为什么要采样?很多问题,我们只需要使用数学解析的方法即可解决。例如对 f(x)做积分,如果 f(x) = x^2,那么直接积分就行,很简单。若f(x)是标准正态分布的概率密度函数(pdf),求[a,b]之间的定积分,那么直接用数学解析方法就搞不定了,因为我们知道正态分布的积转载 2014-03-22 15:49:50 · 3744 阅读 · 0 评论 -
线性学习器-----最小二乘法 Rosenblatt感知机 delta法则
来自:http://blog.csdn.net/wasd6081058/article/details/7886697线性学习器-----最小二乘法 Rosenblatt感知机 delta法则引言 在分类问题中我们通常会用一个实值函数 F(x) 按照这种方式操作:当 F(x) > 0,测试用例x= (x1,x2,...,xn)' ,被转载 2014-11-03 18:11:30 · 1252 阅读 · 0 评论