【机器学习】
文章平均质量分 95
lansatiankong
这个作者很懒,什么都没留下…
展开
-
Restricted Boltzmann Machines
Energy-Based Models (EBM)Energy-based models associate a scalar energy to each configuration of thevariables of interest. Learning corresponds to modifying that energy functionso that its shape has转载 2012-11-27 20:43:44 · 1588 阅读 · 0 评论 -
What knowledge base should I know before I start with Machine learning?
一个网上的帖子I have no background whatsoever with machine learning. I have weak to average skills when it comes to Linear algebra, probability and statistics however I am very determined to learn ML原创 2013-10-30 01:33:05 · 1442 阅读 · 0 评论 -
结构化预测(structured prediction)
下面介绍一下结构化预测(structured prediction)的概念以及常见的参数学习方法:1.概念:结构化预测(structured prediction)是由SVM发展而来的。SVM是一种最大间隔(max-margin)的方法,最擅长处理二分类问题,后来也被用于处理多分类问题。SVM的优点在于有很好的理论基础,即它的泛化能力很强。它的缺点在于1)训练复杂度高;2)不能用于预测结构原创 2013-10-31 22:53:07 · 7096 阅读 · 0 评论 -
Hinge loss
Hinge lossIn machine learning, the hinge loss is a loss function used for training classifiers. The hinge loss is used for "maximum-margin" classification, most notably for support原创 2013-11-02 18:26:49 · 3075 阅读 · 0 评论 -
和机器学习和计算机视觉相关的数学 (转载)
1. 线性代数 (Linear Algebra):我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要。这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的。我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是Introduction to Linear Algebra (3rd Ed.) by Gilber转载 2013-11-04 16:59:41 · 1166 阅读 · 0 评论 -
积累的博客页面---备忘
本人整理的关于计算机视觉(ComputerVision, CV)相关领域的网站链接,其中有CV牛人的主页,CV研究小组的主页,CV领域的paper,代码,CV领原创 2013-10-18 01:49:39 · 1915 阅读 · 3 评论 -
Error And Bias
http://www.ilo.org/public/english/bureau/stat/download/cpi/ch11.pdfhttp://www.mathworks.com/matlabcentral/answers/110399-difference-between-true-and-apparent-error-in-neural-networkThere原创 2013-12-23 15:44:23 · 978 阅读 · 0 评论 -
[CV论文读讲] sparse coding稀疏表达论文列表
http://blog.sciencenet.cn/blog-4099-638754.html1 What is the Goal of Sensory Coding: 介绍了两种sensory coding 的方式 PCA 和 Sparse coding,并比较了他们的优缺点,指出对于大 多数生物信息处理来说多采用sparse coding的方式。2 Sparse转载 2014-04-16 10:25:26 · 2335 阅读 · 0 评论 -
sparse coding 论文、代码资料整理
Paper:http://blog.csdn.net/lansatiankongxxc/article/details/23826557Code:求解sparse code 优化工具箱http://users.ece.gatech.edu/~justin/l1magic/原创 2014-04-24 21:40:21 · 2975 阅读 · 0 评论 -
简洁的BP及RBF神经网络代码
BP神经网络function [W,err]=BPTrain(data,label,hiddenlayers,nodes,type)%Train the bp artial nueral net work%input data,label,layers,nodes,type%data:dim*n%label:1*n%layers:m:number of hidden layers%原创 2014-04-27 17:15:21 · 4979 阅读 · 0 评论 -
What is the difference between L1 and L2 regularization?
今天讨论班一个师姐讲到L1 norm还有L2 norm 的regularization问题,还有晚上和一个同学也讨论到这个问题,具体什么时候用L1,什么时候用L2,论文上写道一般当成分中有几个成分是principal factor的时候我们会使用L1 norm penalty,但是为什么L1会有这个效果。一个网上的讨论:http://www.quora.com/Machine-Lear原创 2013-10-26 01:17:25 · 4197 阅读 · 0 评论 -
牛人推荐机器学习网站
北京大学视觉与听觉信息处理实验室北京邮电大学模式识别与智能系统学科复旦大学智能信息处理开放实验室IEEE Computer Society北京映象站点计算机科学论坛机器人足球赛模式识别国家重点实验室南京航空航天大学模式识别与神经计算实验室 - PARNEC南京大学机器学习与数据挖掘研究所 - LAMDA南京大学人工智能实验室南京大学软件新技术国家重点实验室人工生命之园数据挖掘研究院微软亚洲研究院中原创 2013-10-25 15:53:04 · 1111 阅读 · 0 评论 -
MIT牛人林达华的 ”图˙谱˙马尔可夫过程˙聚类结构 “————经典、透彻,共同分享!
题目中所说到的四个词语,都是Machine Learning以及相关领域中热门的研究课题。表面看属于不同的topic,实际上则是看待同一个问题的不同角度。不少文章论述了它们之间的一些联系,让大家看到了这个世界的奇妙。从图说起这里面,最简单的一个概念就是“图”(Graph),它用于表示事物之间的相互联系。每个图有一批节点(Node),每个节点表示一个对象,通过一些边(Edge)把这些原创 2013-10-15 15:22:16 · 1546 阅读 · 0 评论 -
K-Means 算法
转载自http://coolshell.cn/articles/7779.html最近在学习一些数据挖掘的算法,看到了这个算法,也许这个算法对你来说很简单,但对我来说,我是一个初学者,我在网上翻看了很多资料,发现中文社区没有把这个问题讲得很全面很清楚的文章,所以,把我的学习笔记记录下来,分享给大家。在数据挖掘中, k-Means 算法是一种 cluster analysis 的算法转载 2012-11-21 11:17:12 · 761 阅读 · 0 评论 -
算法杂货铺——k均值聚类(K-means)
摘自http://www.cnblogs.com/leoo2sk/archive/2010/09/20/k-means.html4.1、摘要 在前面的文章中,介绍了三种常见的分类算法。分类作为一种监督学习方法,要求必须事先明确知道各个类别的信息,并且断言所有待分类项都有一个类别与之对应。但是很多时候上述条件得不到满足,尤其是在处理海量数据的时候,如果通过预处理使得数据转载 2012-11-21 11:19:19 · 910 阅读 · 0 评论 -
机器学习平台 GraphLab
GraphLab 是一个机器学习平台,主要是图模型方面的计算。GraphLab 是另一种有趣的MapReduce抽象实现,侧重机器学习算法的并行实现。GraphLab中,Map阶段定义了可以独立执行(在独立的主机上)的计算,Reduce阶段合并这些计算结果。Designing and implementing efficient and provably correct parallel原创 2013-04-23 10:28:29 · 1343 阅读 · 0 评论 -
机器学习中的贝叶斯、概率分布
本文由LeftNotEasy原创,可以转载,但请保留出处和此行,如果有商业用途,请联系作者 [email protected]一. 简单的说贝叶斯定理贝叶斯定理用数学的方法来解释生活中大家都知道的常识形式最简单的定理往往是最好的定理,比如说中心极限定理,这样的定理往往会成为某一个领域的理论基础。机器学习的各种算法中使用的方法,最常见的就是贝叶斯定理。贝叶斯定理的发现过程我没原创 2013-04-23 21:43:20 · 1622 阅读 · 6 评论 -
机器学习书单
http://www.newsmth.net/bbscon.php?bid=5&id=34859&ftype=11入门:Pattern Recognition And Machine Learning,Christopher M. BishopMachine Learning : A Probabilistic Perspective,Kevin P. MurphyTh原创 2013-05-02 11:02:10 · 975 阅读 · 0 评论 -
KL divergence
http://blog.csdn.net/chenglinhust/article/details/8506260一. 概念KL-divergence,俗称KL距离,常用来衡量两个概率分布的距离。根据shannon的信息论,给定一个字符集的概率分布,我们可以设计一种编码,使得表示该字符集组成的字符串平均需要的比特数最少。假设这个字符集是X,对x∈X,其出现概率为P(x),那么其最优编码原创 2013-05-05 11:14:31 · 2085 阅读 · 0 评论 -
北美+德国18名校的数据挖掘、数据分析、人工智能及机器学习课程资源汇总
QuoraWhat is Data Science?How do I become a Data Scientist?How does Data Science differ from traditional statistical analysis?Related CoursesConcepts in Computing with Data, BerkeleyPracti原创 2013-05-13 10:15:02 · 1794 阅读 · 0 评论 -
Belief propagation
转载 http://blog.sina.com.cn/s/blog_60a751620100eiq8.html(zz from Dahua's blog)Belief propagation是machine learning的泰斗J. Pearl的最重要的贡献。对于统计学来说,它最重要的意义就是在于提出了一种很有效的求解条件边缘概率(conditional marginal proba原创 2013-09-16 10:23:02 · 934 阅读 · 0 评论 -
structured svm
最近在看structured svm的内容,刚开始是因为看今年的sigir的一篇cross modal retrieval的文章里面搬用了structured svm以及metric learning to rank的内容,在崔师兄的建议下读读structured svm的文章。列一下阅读的文章列表:Large Margin Methods for Structured Interdepe原创 2013-10-30 01:30:17 · 3832 阅读 · 0 评论