机器学习
文章平均质量分 91
CH-Yuan
这个作者很懒,什么都没留下…
展开
-
在matlab中如何使用SVM工具箱
一、SVM下载http://see.xidian.edu.cn/faculty/chzheng/bishe/indexfiles/indexl.htm二、在MATLAB中添加svm工具箱参考:http://jingyan.baidu.com/article/a501d80cf764c3ec630f5ef5.html1、首先需要MATLAB SVM Toolbox,将其中转载 2015-05-16 08:41:38 · 13103 阅读 · 4 评论 -
协方差特征 image feature 二阶pooling + ECCV12
http://blog.csdn.net/yihaizhiyan/article/details/25898417带code。。。网址:http://www.maths.lth.se/matematiklth/personal/sminchis/code/o2pCode.html paper title: Semantic Segme转载 2015-10-12 15:40:46 · 829 阅读 · 0 评论 -
视频监控相关研究方向
Camera Network AnalysisIncremental Activity Modelling in Multiple Disjoint Cameras C. C. Loy, T. Xiang, and S. Gong IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 34, no.转载 2015-10-27 09:17:40 · 919 阅读 · 0 评论 -
Distance metric learning
转自:http://blog.csdn.net/lzt1983/article/details/7884553一些DML的参考资源,以后有时间再详细谈谈。1. Wikipedia2. CMU的Liu Yang总结的关于DML的综述页面。对DML的经典算法进行了分类总结,其中她总结的论文非常有价值,也是我的入门读物。3. ECCV 2010的turor转载 2015-10-13 12:02:15 · 622 阅读 · 0 评论 -
好用的工具箱
http://www.52ml.net/tags/MATLAB原创 2015-10-26 22:37:03 · 408 阅读 · 0 评论 -
距离学习toolkit
http://www.cs.cmu.edu/~liuy/distlearn.htm转载 2015-10-27 09:47:09 · 476 阅读 · 0 评论 -
线性判别分析LDA
Data Mining线性判别分析LDA首先搞清楚什么叫判别分析?Discriminant Analysis就是根据研究对象的各种特征值判别其类型归属问题的一种多变量统计分析方法。根据判别标准不同,可以分为距离判别、Fisher判别、Bayes判别法等。比如在KNN中用的就是距离判别,当然这里的“距离”又有好几种:欧氏距离、街区距离、甚至可以用皮尔森相关系数等。朴素转载 2015-10-30 11:23:06 · 572 阅读 · 0 评论 -
推荐!国外程序员整理的机器学习资源大全
本列表选编了一些机器学习领域牛B的框架、库以及软件(按编程语言排序)。C++计算机视觉CCV —基于C语言/提供缓存/核心的机器视觉库,新颖的机器视觉库OpenCV—它提供C++, C, Python, Java 以及 MATLAB接口,并支持Windows, Linux, Android and Mac OS操作系统。通用机器学习转载 2015-10-30 12:29:25 · 918 阅读 · 0 评论 -
libsvm使用
http://blog.csdn.net/chl033/article/details/4645544转载 2015-11-15 15:34:40 · 557 阅读 · 0 评论 -
What is 'lr_policy' in caffe?
reference: https://stackoverflow.com/questions/30033096/what-is-lr-policy-in-caffe/30045244I just try to find out how I can use Caffe. To do so, I just took a look at the different .prototxt原创 2015-12-08 19:55:04 · 3215 阅读 · 0 评论 -
守护进程
http://www.jianshu.com/p/47ceac3a0e51转载 2016-09-22 18:58:25 · 310 阅读 · 0 评论 -
SolverParameter
net: "models/individually/viper_trainval.prototxt"test_iter: 7test_interval: 50test_initialization: truedisplay: 20 #每迭代20次显示一次训练结果average_loss: 20iter_size: 2lr_policy: "stepdecr"base_lr: 0.1ga原创 2016-10-28 10:01:18 · 1660 阅读 · 0 评论 -
L0,L1,L2范数
http://blog.csdn.net/zouxy09/article/details/24971995转载 2015-10-08 14:51:10 · 430 阅读 · 0 评论 -
AMDD 一个把大问题分成小问题的优化算法
还没看懂,先记下地址“这个博客上有基础知识:http://www.cnblogs.com/breezedeus/p/3496819.html下面是AMDDhttp://web.stanford.edu/~boyd/admm.html转载 2015-11-03 18:38:54 · 2557 阅读 · 0 评论 -
SVM核函数
原文地址:http://www.zhizhihu.com/html/y2010/2113.html支持向量机是建立在统计学习理论基础之上的新一代机器学习算法,支持向量机的优势主要体现在解决线性不可分问题,它通过引入核函数,巧妙地解决了在高维空间中的内积运算,从而很好地解决了非线性分类问题。构造出一个具有良好性能的SVM,核函数的选择是关键.核函数的选择包括两部分工作转载 2015-05-16 10:04:43 · 946 阅读 · 0 评论 -
深度学习笔记6:Learning color features with Sparse Autoencoders
线性解码器动机当采用稀疏自编码器的输出层采用sigmoid作为激励函数时,要求对输入进行缩放或限制,使其位于[0,1]范围中。但是有些输入值很难满足要求,如PCA白化处理的输入并不满足该范围要求。因此,可对稀疏自编码器的输出层激活函数从an=sigmoid(zn)改为an=zn.——称为线性激励函数。把具有线性解码器的稀疏自编码器应用于彩色特征提取预处理:meanPatch = mean(patch原创 2015-06-16 13:16:53 · 500 阅读 · 0 评论 -
深度学习笔记7 Working with Large Images 卷积特征提取
动机在用稀疏自编码器对8*8 或28*28等小图像提取特征时是可行的,但是若对大图像学习整幅图像的特征,将会非常耗时。因此需要把这种“全连接”的设计改为“部分联通”的网络。卷积自然图像有其固有特性——图像的一部分统计特征与其他部分是一样的,这也意味着我们在这一部分上学习的特征也能用在另一部分上,所以对这个图像上的所以位置,我们都能使用同样的学习特征。 比如,可以8*8的样本中学习到一些特征,并把这原创 2015-06-16 21:41:23 · 929 阅读 · 0 评论 -
深度学习笔记8 数据预处理
数据预处理标准流程自然灰度图像 (1)灰度图像具有平稳特性,对每个数据样本分别做均值消减(即减去直流分量)——每个图像块,计算平均像素值,并将图像每个像素点减去均值。每个图像块有一个不同的均值。“`x=x-repmat(mean(x,1),size(x,1),1);%x是144*10000,代表10000个patch(2)然后采用PCA/ZCA白化处理,其中的epsilon要足够大以达到低通滤原创 2015-06-17 09:18:24 · 3306 阅读 · 0 评论 -
深度学习笔记5:Building Deep Networks for Classification
由多个稀疏自编码器的编码层和一个分类器组成。 直接上代码:numLayers=numel(stack);a{1}=data;for i=1:numLayers z{i+1}=stack{i}.w*a{i}+repmat(stack{i}.b,1,M); a{i+1}=sigmoid(z{i+1});endz{numLayers+2}=softmaxTheta*a{n原创 2015-06-16 09:26:09 · 693 阅读 · 0 评论 -
深度学习笔记9 Sparse coding
转载:http://blog.csdn.net/zouxy09/article/details/8777094/如果我们把输出必须和输入相等的限制放松,同时利用线性代数中基的概念,即O = a1*Φ1 + a2*Φ2+….+ an*Φn, Φi是基,ai是系数,我们可以得到这样一个优化问题: Min |I – O|,其中I表示输入,O表示输出。 通过求解这个最优化式子,我们可以求得转载 2015-06-24 15:35:04 · 599 阅读 · 0 评论 -
深度学习笔记一:稀疏自编码器
开始学习深度学习了,既然确定目标就要努力前行!为自己加油!——2015.6.11Sparse Encoder1.神经网络 概念:假设我们有训练样本集 (x(^ i),y(^ i)) ,那么神经网络算法能够提供一种复杂且非线性的假设模型 h_{W,b}(x) ,它具有参数 W, b ,可以以此参数来拟合我们的数据。 激活函数: f(z)=sigmoid(z)=1/(1+exp(-z)) 导数:原创 2015-06-11 08:41:35 · 3486 阅读 · 1 评论 -
深度学习笔记二:PAC,PAC白化,ZCA白化
不知道怎么回事, 博客误删了。不想再写了,列下提纲。PCAsigma=(x*x')/size(x,2);[u,s,v]=svd(sigma);xRot = zeros(size(x)); % You need to compute thisxRot=u'*x;%以下降维xHat = zeros(size(x)); % You need to compute thisuk=u(:,1:k)原创 2015-06-12 11:37:41 · 2305 阅读 · 0 评论 -
深度学习笔记三:Softmax Regression
Softmax回归模型整体理解回归与分类借用网上一个帖子的回复:分类问题和回归问题都要根据训练样本找到一个实值函数g(x). 回归问题的要求是:给定一个新的模式,根据训练集推断它所对应的输出y(实数)是多少。也就是使用y=g(x)来推断任一输入x所对应的输出值。分类问题是:给定一个新的模式,根据训练集推断它所对应的类别(如:+1,-1)。也就是使用y=sign(g(x))来推断任一输入x所对应的类别原创 2015-06-12 17:31:43 · 1337 阅读 · 1 评论 -
深度学习笔记4:Self-Taught Learning and Unsupervised Feature Learning
这个主题我很喜欢,嘿嘿~ 1. 无监督特征学习 用稀疏自编码器从大量无标注数据中学习好的特征描述。 2. 数据预处理 无监督特征学习前,要对数据进行预处理。 如均值标准化,PCA,PCA白化,ZCA白化。但是需要记录下训练时的参数,即均值和U,在后面训练时要使用相同的参数。 3. 无监督特征学习的术语 自学习:不要求无标注数据和已标注的数据来自相同的分布。原创 2015-06-14 08:42:50 · 787 阅读 · 0 评论 -
【教程】利用libsvm-mat建立分类模型model参数解密【by faruto】
原文地址:http://www.matlabsky.com/thread-12649-1-1.html建议大家看这篇帖子之前先看一下以下几篇帖子: 如何使用libsvm进行分类【by faruto】 http://www.matlabsky.com/forum-v … -fromuid-18677.html libsvm 参数说明【中英文双语版本】 http://www.matlabsky.转载 2015-07-06 20:53:22 · 801 阅读 · 0 评论 -
用variance和bias解释其overfitting
原文参考:https://www.zhihu.com/question/27068705转载 2017-04-10 10:32:54 · 1260 阅读 · 0 评论