机器学习
YLH9604
这个作者很懒,什么都没留下…
展开
-
linear Regression 学习
初入门,仅做学习记录(http://cs229.stanford.edu/materials.html) 的过程。记录学习的代码,理论内容偷懒一下,参考:http://blog.csdn.net/yangliuy/article/details/18455525linear_grad_ascent.m文件内容function [theta, J_history] = linear_原创 2015-03-11 11:03:37 · 435 阅读 · 0 评论 -
稀疏编码及其改进(ScSPM,LLC,super-vector coding)
http://blog.csdn.net/tiandijun/article/details/40681463转载 2017-07-10 15:00:38 · 475 阅读 · 0 评论 -
deep learning 自学习网络的Softmax分类器
http://blog.csdn.net/hlx371240/article/details/40201499转载 2017-07-10 16:21:51 · 581 阅读 · 0 评论 -
太有用的图像处理的代码仓库
特征提取Feature Extraction:· SIFT [1] [Demo program][SIFT Library] [VLFeat]· PCA-SIFT [2] [Project]· Affine-SIFT [3] [Project]· SURF [4] [OpenSURF] [Mat转载 2017-07-04 10:16:51 · 519 阅读 · 0 评论 -
高斯混合模型实践(Python)
https://zhuanlan.zhihu.com/p/26328340'''高斯混合模型的实践(高斯一元分布)。对于由参数未知的K个高斯混合模型生成的数据集,利用EM算法可以对这K个高斯分布进行参数估计,并且可以知道两个模型的各自比重。因此还可以用来聚类。作者:胡亦磊'''import numpy as npimport matplotlib.pyplot as转载 2017-07-15 22:15:15 · 2871 阅读 · 1 评论 -
半监督学习研究
http://blog.csdn.net/daisy9212/article/details/49509899转载 2017-07-16 11:09:58 · 614 阅读 · 0 评论 -
计算Fisher vector和VLAD
This short tutorial shows how to compute Fisher vector and VLAD encodings with VLFeat MATLAB interface.These encoding serve a similar purposes: summarizing in a vectorial statistic a number of l转载 2017-07-16 19:45:25 · 621 阅读 · 0 评论 -
机器学习中导数最优化方法
1. 前言熟悉机器学习的童鞋都知道,优化方法是其中一个非常重要的话题,最常见的情形就是利用目标函数的导数通过多次迭代来求解无约束最优化问题。实现简单,coding 方便,是训练模型的必备利器之一。这篇博客主要总结一下使用导数的最优化方法的几个基本方法,梳理梳理相关的数学知识,本人也是一边写一边学,如有问题,欢迎指正,共同学习,一起进步。 2. 几个数学概念1) 梯度转载 2017-07-16 20:34:14 · 682 阅读 · 0 评论 -
稀疏表示介绍
http://www.cnblogs.com/daniel-D/p/3222576.html 声明 之前虽然听过压缩感知和稀疏表示,实际上昨天才正式着手开始了解,纯属新手,如有错误,敬请指出,共同进步。主要学习资料是 Coursera 上 Duke 大学的公开课——Image and video processing, by Pro.Guillermo S转载 2017-07-16 20:37:44 · 2200 阅读 · 0 评论 -
机器学习模型评价(Evaluating Machine Learning Models)-主要概念与陷阱
转:http://blog.csdn.net/heyongluoyao8/article/details/49408319转载 2017-07-07 15:40:06 · 564 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限原创 2017-07-09 16:14:58 · 496 阅读 · 0 评论 -
机器学习中的范数规则化之(二)核范数与规则项参数选择
机器学习中的范数规则化之(二)核范数与规则项参数选择zouxy09@qq.comhttp://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 三、核范数 核范数||W||*是指转载 2017-07-09 16:15:40 · 418 阅读 · 0 评论 -
图像的稀疏表示——ScSPM和LLC的总结
前言 上一篇提到了SPM。这篇博客打算把ScSPM和LLC一起总结了。ScSPM和LLC其实都是对SPM的改进。这些技术,都是对特征的描述。它们既没有创造出新的特征(都是提取SIFT,HOG, RGB-histogram et al),也没有用新的分类器(也都用SVM用于最后的image classification),重点都在于如何由SIFT、HOG形成图像的特征(见图1)。转载 2017-07-10 14:58:23 · 538 阅读 · 1 评论 -
推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)
推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure) 1、准确率与召回率(Precision & Recall)准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比转载 2016-03-30 10:47:43 · 1521 阅读 · 0 评论 -
推荐系统评测指标—准确率(Precision)、召回率(Recall)、F值(F-Measure)
下面简单列举几种常用的推荐系统评测指标:1、准确率与召回率(Precision & Recall)准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。一般来说,Precision就是检索出来的条目(比如:转载 2017-01-12 11:14:54 · 628 阅读 · 0 评论 -
Logistic Regression 学习
记录使用,相关参考:http://blog.csdn.net/yangliuy/article/details/18504921原创 2015-03-11 14:14:39 · 711 阅读 · 0 评论 -
Multivariance Linear Regression
转载:http://www.cnblogs.com/tornadomeet/archive/2013/03/15/2962116.html,加一点内容linear_grad_ascent_test3.m代码linear_grad_ascent函数参考Linear Regression篇function linear_grad_ascent_test3%多变量线下回归测试%% 方转载 2015-03-11 17:00:08 · 449 阅读 · 0 评论 -
Selective Search for Object Recognition
(有价值)原文:http://blog.csdn.net/surgewong/article/details/39316931转载 2016-03-17 10:03:37 · 395 阅读 · 0 评论 -
准确率与召回率
在信息检索、分类体系中,有一系列的指标,搞清楚这些指标对于评价检索和分类性能非常重要,因此最近根据网友的博客做了一个汇总。准确率、召回率、F1信息检索、分类、识别、翻译等领域两个最基本指标是召回率(Recall Rate)和准确率(Precision Rate),召回率也叫查全率,准确率也叫查准率,概念公式: 召回率(Recall) =转载 2016-04-02 22:39:29 · 485 阅读 · 0 评论 -
李菲菲 bag of words
Bag-Of-Words中K-Means聚类的效率优化最初的Bag of words,也叫做“词袋”,在信息检索中,Bag of words model假定对于一个文本,忽略其词序和语法,句法,将其仅仅看做是一个词集合,或者说是词的一个组合,文本中每个词的出现都是独立的,不依赖于其他词 是否出现,或者说当这篇文章的作者在任意一个位置选择一个词汇都不受前面句子的影响而独立选择的。现在转载 2016-06-30 16:35:46 · 538 阅读 · 0 评论 -
机器视觉开源代码集合
一、特征提取Feature Extraction:SIFT [1] [Demo program][SIFT Library] [VLFeat]PCA-SIFT [2] [Project]Affine-SIFT [3] [Project]SURF [4] [OpenSURF] [Matlab Wrapper]Affine Covariant Features [5] [Oxfor转载 2016-10-09 12:33:17 · 664 阅读 · 0 评论 -
CV Datasets on the web
link:http://www.cvpapers.com/datasets.htmlParticipate in Reproducible ResearchDetectionPASCAL VOC 2009 datasetClassification/Detection Competitions, Segmentation Competition, Person Layo转载 2016-10-22 09:58:50 · 565 阅读 · 0 评论 -
三种监督学习
在机器学习(Machine learning)领域,主要有三类不同的学习方法:监督学习(Supervised learning)、非监督学习(Unsupervised learning)、半监督学习(Semi-supervised learning),监督学习:通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,例如分类。 非转载 2016-11-10 13:12:15 · 2787 阅读 · 0 评论 -
8种常见机器学习算法比较
简介机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。假如你在乎精度(accuracy)的话,最好的方法就是通过交叉验证(cross-validation)对各个转载 2016-11-16 15:45:17 · 1948 阅读 · 1 评论 -
Matlab分类器大全
train_data是训练特征数据, train_label是分类标签。Predict_label是预测的标签。MatLab训练数据, 得到语义标签向量 Scores(概率输出)。1.逻辑回归(多项式MultiNomial logistic Regression)Factor = mnrfit(train_data, train_label);Scores = mnrv转载 2016-12-25 13:43:08 · 1462 阅读 · 0 评论 -
损失函数问题
1)L1,L2正则化理解-奥卡姆剃刀(Occam's razor)原理http://blog.csdn.net/u011534057/article/details/51218921转载 2016-12-27 15:08:02 · 851 阅读 · 0 评论 -
损失函数可视化
1. 引言上一节深度学习与计算机视觉系列(3)_线性SVM与SoftMax分类器中提到两个对图像识别至关重要的概念:用于把原始像素信息映射到不同类别得分的得分函数/score function用于评估参数W效果(评估该参数下每类得分和实际得分的吻合度)的损失函数/loss function其中对于线性SVM,我们有:得分函数f(xi,W)=Wxi损失函数L=1N∑i转载 2017-07-09 16:28:01 · 5303 阅读 · 0 评论