ML
elisa_gao
这个作者很懒,什么都没留下…
展开
-
斯坦福机器学习_神经网络
1、神经网络,神经元的树突作为shur原创 2014-04-15 09:47:40 · 575 阅读 · 0 评论 -
Deep Learning
DBN原理:类似于LDA模型,可以当做是文档的生成过程,当文档是yizh原创 2014-06-18 21:10:15 · 643 阅读 · 0 评论 -
matlab函数调用
MATLAB中函数调用是通过文件名调用,所以函数wenjianming原创 2014-10-23 09:45:49 · 1327 阅读 · 0 评论 -
Matlab导出eps图形给latex使用
通常情况下对于IEEE模板,如果文章是占一列column,图形的宽度是3.5in(1in=2.54cm), 如果是2列,图形是7in通常情况下,字体可以用9或者10pt请按照如下步骤生成符号标准的eps图形:1.点击你的图形窗口—>Export Setup2.点击size, 填写3.5或者7,单位选择inch3.选择fonts,在minimum里面填入9转载 2014-10-25 21:36:53 · 2731 阅读 · 0 评论 -
precision and recall rate
准确率就是对的占返回的所有数目的原创 2014-10-09 17:31:35 · 846 阅读 · 0 评论 -
梯度下降的概念和在机器学习的应用
梯度下降的公式是:原创 2014-11-15 11:09:27 · 560 阅读 · 0 评论 -
PRML_决策论&信息论
决策论分类决策 在做决策的一个准则就是如何减少误分类损失: 如在而分类中,即把所属类别为c1的数据分到c2,把所属类别为c2的数据分到c1。 p(mistake)=∫R1p(x,c2)dx+∫R2p(x,c1)dxp(mistake) = \int_{\mathcal R_1}p(x,c_2)dx + \int_{\mathcal R_2}p(x,c_1)dx 用矩阵表示可以为: E原创 2015-09-25 11:52:43 · 797 阅读 · 0 评论 -
PRML第一章_易混淆概念-先验后验&生成判别&分类回归
先验概率和后验概率:例如先验概率是p(B),不需要给定的F,就可以得到的概率叫做先验概率。后验概率是p(B|F),给定F之后,才得到的概率就叫做后验概率。生成和判别模型生成模型:通过联合概率密度p(x,y),再间接根据由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建原创 2015-09-25 11:39:36 · 631 阅读 · 0 评论 -
PRML第一章_易混淆概念-先验后验&生成判别&分类回归
先验概率和后验概率:例如先验概率是p(B),不需要给定的F,就可以得到的概率叫做先验概率。 后验概率是p(B|F),给定F之后,才得到的概率就叫做后验概率。生成和判别模型生成模型: 通过联合概率密度p(x,y),再间接根据 由数据学习联合概率密度分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。基本思想是首先建立样本的联合概原创 2015-09-25 11:41:10 · 668 阅读 · 0 评论 -
PRML第一章_概率论
1.2 概率论本节介绍了简单的概念:概率密度 现在有两个box,红的box里面有2个apples,6 oranges,蓝的box里面有3 apples,1 oranges。 进行有放回的选取,即bootstrap. p(B)指的就是从两个box中取到红box的概率 p(F)指的是取到apple的概率 1. 概率规则: sum rule: p(X)=∑Yp(X,Y)p(X) = \s原创 2015-09-25 11:44:32 · 733 阅读 · 0 评论 -
分类&回归算法-随机森林
随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。在得到森林之后,当有一个新的输入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类(对于分类算法),然后看看哪一类被选择最多,就预测这个样本为那一类。 算法思想解释: 在上述中,这些决策树好比是臭皮匠,森林就是臭皮匠的聚集之地。在分类中,倘若臭皮匠大原创 2015-11-03 14:35:46 · 34957 阅读 · 1 评论 -
集成学习(Ensemble Learning)
1、集成学习主要采用“”原创 2014-07-29 11:29:20 · 1355 阅读 · 2 评论 -
主动学习文章_active learning by querying informative and representative examples
大部分的主动学习模型只考虑其中的一种,例如原创 2014-07-09 09:40:48 · 2399 阅读 · 1 评论 -
协同过滤技术
协同过滤技术有SVD分解针对xi's原创 2014-07-26 09:30:34 · 729 阅读 · 2 评论 -
神经网络和BP算法
参考视频:coursera上ng上课视频原创 2014-04-17 09:13:33 · 839 阅读 · 0 评论 -
判别模型VS生成模型
判别模型也称作条件概率模型,根据给定zhi原创 2014-05-07 09:48:00 · 484 阅读 · 0 评论 -
An Analysis of Single-Layer Networks in Unsupervised Feature Learning
K-means:http://metaoptimize.com/qa/questions/4964/why-does-k-means-generate-such-good-features-especially-compared-to-gmmIn the paper above, Ng's group uses K-means for dictionary learning; that原创 2014-06-01 12:15:45 · 1100 阅读 · 0 评论 -
Subgradient
次梯度定义:原创 2014-06-08 20:58:55 · 1830 阅读 · 0 评论 -
Max margin framework
:在函数取最大值的时候,y原创 2014-06-08 11:11:02 · 2470 阅读 · 0 评论 -
softmax
softmax是柔性化最大值,是一种归一操作,使得输出在(0,1)之间。举例来说a=3,b=6,c=9. max=9,softmax=9/(3+6+9)=0.5,argmax其实是取得max时的arg,argmax=c原创 2014-06-08 15:46:05 · 4484 阅读 · 0 评论 -
K-means(tri)利用三角不等式性质加速k-means
paper:Using the Triangle Inequality to Accelerate k-means公式1:x原创 2014-06-09 10:43:52 · 3640 阅读 · 1 评论 -
hard k-means and soft k-means
硬聚类指的是一个个体s 只能属于某一种聚类。软聚类允许一个个体原创 2014-06-01 10:30:52 · 4678 阅读 · 0 评论 -
Efficient Estimation of Word Representations in Vector Space
标题:Efficient Estimation of Word Representations in Vector Space作者:Tomas Mikolov发表于:ICLR 2013转载 2014-06-01 12:21:05 · 1468 阅读 · 0 评论 -
Active learning(主动学习)
主动学习假设:1、AL implicitly assumes that a large pool of unlabeled documents is availableand that querying this pool is cheap compared to labelingsince the latter takes a human expert’s time原创 2014-07-08 22:01:33 · 2499 阅读 · 0 评论 -
PRML第一章学习笔记_过拟合问题
第一章举了一个数字图像识别的例子来介绍了机器学习的几个重要概念:学习,训练集,测试集,监督学习,无监督学习,强化学习,回归,特征抽取,泛化性,等等。 1.1多项式拟合问题 我们很容易的想到了多项式拟合,这个是最naïve的想法。 y(x,w)=w0+w1x+w2x2+w3x3+...+wMxM=∑Mj=0wjxjy(x,w) = w_0 + w_1x + w_2x^2 + w_3x^3 +原创 2015-09-23 11:12:14 · 927 阅读 · 0 评论