Distinctive Image Features from Scale-Invariant Keypoints(SIFT) SIFT的论文:Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.
LLC学习笔记4 几篇参考文献存在着一个改进的顺序,BOF -> SPM -> ScSPm ->LLC 其中BOF->SPM是在Pooling阶段进行改进,SPM -> ScSPm ->LLC则是在coding阶段进行改进。。令X是一幅图像中提取得到的D维local descriptors, 给定一个由M个条目的codebook B=[b1,b2,…,bM]∈ℝ^(D X M),使用不同的编码方案将each des
LLC学习笔记3(SPM) 文献[3]提到:bag of visual words模型被大量地用在了Image representation中,形成BOF,但BOF模型缺失了特征点的位置信息,Spatial Pyramid Matching(SPM) 基于金字塔匹配的思路,提出空间金字塔匹配来Beyond bags of features。。。SPM,ScPM,LLC稀疏编码等方面,下面这个博文系列讲得超美,本文参考的量巨大。
LLC学习笔记2(BOF) Bag-of-Features(BOF) 图像可以视为一种文档对象,图像中不同的局部区域或其特征可看做构成图像的词汇,其中相近的区域或其特征可以视作为一个词。这样,就能够把文本检索及分类的方法用到图像分类及检索中去。
机器视觉开源处理库 机器视觉开源处理库汇总,貌似是出自CVChina。。。通用库/General LibraryOpenCV无需多言。RAVLRecognition And Vision Library. 线程安全。强大的IO机制。包含AAM。CImg很酷的一个图像处理包。整个库只有一个头文件。包含一个基于PDE的光流算法。图像,视频IO/Image,
超像素分割(Superpixel Segmentation)发展 转自:http://blog.csdn.net/anshan1984/article/details/8918167最近实验需要用到超像素的一些算法,之前也有看过一下分水岭这个老算法,想着找找近年来的新算法,跟上时代的步伐。。然后找到这个。。虽然截至13年,但也是至今为止影响力较大的一些算法了,这两年的许多文章是基于这些算法改进的。感谢大神整理~超像素分割(Superpixel S
Grab Cut学习笔记3 Graph Cut的目标和背景的模型是灰度直方图,Grab Cut取代为RGB三通道的混合高斯模型GMM;建立模型是为了计算一个像素点分别属于目标和背景的概率,介个是为了建图的时候确定Gibbs能量的区域能量项,即图的t-link的权值。3.1T-Link单分布高斯背景模型认为,对一个背景图像,特定像素亮度的分布满足高斯分布,即对背景图像B,(x,y)点的亮度满足:IB(x,y) ~ N(
Grab Cut学习笔记1(new min-cut /max-flow algorithm) 参(chao)考(xi)的资料还是很多的,好好学习,天天向上嘛~1.swsamleo大神:http://blog.csdn.net/swsamleo/article/details/79153162.wstcegg大神:http://blog.csdn.net/wstcegg/article/details/394955353.zouxy09大神图像分割系列:http://
图像的特征 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征总结。一 颜色特征(一)特点:颜色特征是一种全局特征,描 述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区 域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多
Grab Cut学习笔记2(GraphCut) GraphCut学习理解 参(chao)考(xi)的资料还是很多的,好好学习,天天向上嘛~1.zouxy09大神图像分割系列:http://blog.csdn.net/zouxy09/article/details/8532106GraphCuts on the GPU:http://blog.sina.com.cn/s/blog_60a0e97e0101bc75.htmlG
TLD学习笔记4 算法的整体流程四这样滴检测器由一系列包围框产生样本,经过级联分类器产生正样本,放入样本集;追踪器估计出物体的新位置,P专家根据这个位置又产生正样本,N专家从这些正样本里选出一个最可信的,同时把其他正样本标记为负;最后用正样本更新检测器的分类器参数,并确定下一帧物体包围框的位置。
TLD学习笔记2 对于视频追踪来说,常用的方法有两种:一是使用追踪器根据物体在上一帧的位置预测它在下一帧的位置,但这样会积累误差,而且一旦物体在图像中消失,追踪器就会永久失效,即使物体再出现也无法完成追踪二是使用检测器,对每一帧单独处理检测物体的位置,但这又需要提前对检测器离线训练,只能用来追踪事先已知的物体对视频中未知物体的长时间跟踪的算法。“未知物体”指的是任意的物体,在开始追踪之前不知道哪