![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模式识别
文章平均质量分 81
有条彩虹鱼
这个作者很懒,什么都没留下…
展开
-
拓展聋哑儿童交流的空间和渠道---基于Kinect的手语实时翻译系统
本文转自-----专访Kinect手语翻译系统团队:网状手语图模型是实现实时翻译的关键 原文链接在这里->http://www.csdn.net/article/2013-12-17/2817828 看到这篇文章,真的非常感动。技术改变生活,不是一句空话。而那些聋哑儿童更加需要社会的关爱。这项技术拓展了聋哑儿童交流的空间和渠道,使他们更好的融入到社会中来。这个项目真是太有意义了,祝这个项目可以转载 2013-12-30 17:22:39 · 2031 阅读 · 0 评论 -
LSH——局部敏感哈希一些简单介绍
这篇文章转自:->http://blog.csdn.net/icvpr/article/details/12342159 简单介绍了LSH的基本概念,好像源于某篇期刊,我还是收下了。 一、局部敏感哈希LSH 在很多应用领域中,我们面对和需要处理的数据往往是海量并且具有很高的维度,怎样快速地从海量的高维数据集合中找到与某个数据最相似(距离最近)的一个数据或多转载 2014-01-01 13:34:42 · 1500 阅读 · 0 评论 -
svm系列八
现在我们已经把一个本来线性不可分的文本分类问题,通过映射到高维空间而变成了线性可分的。就像下图这样: 圆形和方形的点各有成千上万个(毕竟,这就是我们训练集中文档的数量嘛,当然很大了)。现在想象我们有另一个训练集,只比原先这个训练集多了一篇文章,映射到高维空间以后(当然,也使用了相同的核函数),也就多了一个样本点,但是这个样本的位置是这样的: 就是图中黄色转载 2014-01-05 15:16:32 · 532 阅读 · 0 评论 -
svm系列四
原文链接->http://www.blogjava.net/zhenandaci/archive/2009/02/13/254578.html 上节说到我们有了一个线性分类函数,也有了判断解优劣的标准——即有了优化的目标,这个目标就是最大化几何间隔,但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样的说法,这是怎么回事呢?回头再看看我们对间隔和几何间隔的定义: 间隔转载 2014-01-05 15:11:46 · 520 阅读 · 0 评论 -
svm系列五
从最一般的定义上说,一个求最小值的问题就是一个优化问题(也叫寻优问题,更文绉绉的叫法是规划——Programming),它同样由两部分组成,目标函数和约束条件,可以用下面的式子表示: (式1) 约束条件用函数c来表示,就是constrain的意思啦。你可以看出一共有p+q个约束条件,其中p个是不等式约束,q个等式约束。 关于这个式子可以这样来理解:式中的x是自变量,但不限定它的维转载 2014-01-05 15:13:13 · 617 阅读 · 0 评论 -
svm系列七
生存?还是毁灭?——哈姆雷特 可分?还是不可分?——支持向量机 之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?是否有某种方法,让线性不可分的数据变得线性可分呢? 有!其思想说来也转载 2014-01-05 15:15:37 · 575 阅读 · 0 评论 -
SVM的系列一
(一)SVM的八股简介 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中[10]。 支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Ac转载 2014-01-05 15:08:11 · 688 阅读 · 0 评论 -
svm系列六
让我再一次比较完整的重复一下我们要解决的问题:我们有属于两个类别的样本点(并不限定这些点在二维空间中)若干,如图, 圆形的样本点定为正样本(连带着,我们可以把正样本所属的类叫做正类),方形的点定为负例。我们想求得这样一个线性函数(在n维空间中的线性函数): g(x)=wx+b 使得所有属于正类的点x+代入以后有g(x+)≥1,而所有属于负类的点x-代入后有g(x-)≤-1转载 2014-01-05 15:14:32 · 515 阅读 · 0 评论 -
svm系列九
接下来要说的东西其实不是松弛变量本身,但由于是为了使用松弛变量才引入的,因此放在这里也算合适,那就是惩罚因子C。回头看一眼引入了松弛变量以后的优化问题: 注意其中C的位置,也可以回想一下C所起的作用(表征你有多么重视离群点,C越大越重视,越不想丢掉它们)。这个式子是以前做SVM的人写的,大家也就这么用,但没有任何规定说必须对所有的松弛变量都使用同一个惩罚因子,我们完全可以给每一个离群转载 2014-01-05 15:17:39 · 559 阅读 · 0 评论