基于决策树的高层次语义图像检索


随着现代通信技Internet的广泛普及,数字图像的数量出现了急剧增长。如何从这些海量的图像数据中快速有效地找出需要的信息, 是一个非常有理论价值和实际意义的课题。从图像检索发展的历程来看,其主要经历了两个阶段:基于文本的图像检索和基于内容的图像检索。而随着多媒体技术的迅速发展,传统的基于文本的信息检索技术已经不能满足需求。相对于基于文本的图像检索技术来说,基于内容的图像检索实现了自动化、智能化的图像检索和管理,主要利用了图像中的一些可视化信息,如颜色、形状、纹理等信息作为检索的途径,从而提高了检索的效率和准确性,因此得到越来越多人的关注。

然而,人们判断图像的相似性并非仅仅建立在图像视觉特征的相似性上。在人的感知系统中,用户主要根据图像的含义而不是颜色、纹理、形状等特征,来直观地进行分类并判别图像满足自己的需要程度。这些图像的含义就是图像的高层语义特征,它包含了人对图像内容的理解,但是这种理解是无法直接从图像的视觉特征获得的,也就是数字图像特征(颜色、形状、纹理等特征)和人类语言描述(也称高层特征)之间的“语义鸿沟”semanticgap)。近年来,专家和学者们为了克服“语义鸿沟”已经提出了许多方法,其中一种是使用机器学习的方法来关联查询概念和低水平的图像特征。本文提出一个基于决策树的语义图像检索方法,该方法使用决策树算法从图像的低级特征中提取出语义特征,引入“语义模板“概念以关联低级特征和语义特征。基于此方法设计的图像检索系统支持关键字和图像两种检索方式。

关键字:图像检索,语义鸿沟,决策树

 

 

 

 

 

 

 

 

 

第一章  引言

1.1 图像检索的研究意义

近年来,随着网络和计算机技术的飞速发展,社会进入了以 “大数据”为标志的网络数据时代,近年来,《Nature》和《Science》等国际顶级刊物相继出版专刊来探讨对“大数据”的研究。对网络数据的研究对维护社会稳定、推动社会发展、提升行业竞争能力、促生新兴战略性产业及对科学研究的方法论有着重要的作用。

而网络数据的重要组成部分——图像,作为包含丰富信息内容的多媒体信息,随着 Internet的日益普及和网络技术的不断发展,越来越成为网络数据的主流。人类感知外界的信息是多种多样的,包括视觉、听觉、嗅觉、触觉、味觉、力觉和沉浸感等,据统计,其中视觉获取的信息约占70%[1]。通常情况下,图像比其它任何媒体所传递的信息更加丰富、生动、形象和直观,正所谓“百闻不如一见”,因此图像在人们的生活工作学习中扮演着重要角色。近年来,随着图像获取技术的发展,电子产品 (如数码相机、拍照手机、带有摄像头的微型电脑等)的迅速普及,卫星多光谱扫描成像系统、X射线计算机断层摄影系统(computerized tomography, CT)、超声成像(ultrasonography)、工业机器人视觉系统等专业领域成像设备的推广,特别是随着多媒体技术和网络技术的快速发展,使得数字图像等多媒体数据的规模急剧膨胀,海量的图像数据在带给人们各种便利的同时,也带来了极大的问题,如何对这些图像进行有效地组织、表达和检索,以使用户能从浩如烟海的图像数据中及时、高效地寻找所需要的图像已成为近年来一个具有突出意义的课题[2]。如何建立高效的图像检索模型和方法,根据图像的底层视觉属性特征建立起与高层语义信息的有效关联,给出性能良好的图像检索模型与方法,检索出用户所需的、满意的图像也已愈发的重要。而图像检索技术就是解决这一问题的有力工具。

1.2 图像检索发展历程

从20世纪70年代起开始对图像检索领域研究到现在,图像检索技术经历了三个发展阶段:基于文本、基于内容、基于语义的图像检索[3]

1)基于文本的图像检索阶段

传统的图像检索方法从本质上来说是一种基于文本的图像检索技术,它的历史可以追溯到20世纪70年代末期。早期基于文本的图像检索技术对数据库中的图像的描述和表达直接使用关键字或自由形式的文本,在匹配阶段则借用传统的文本匹配检索[4]。这类方法简单,充分使用和借鉴了数据库的技术,在对图像理解的基础上,采用关键字对每幅图像语义进行人工标注,然后利用传统数据库技术或文本信息检索技术对图像标注进行存储、索引和检索,用户在查询图像的时候只需要输入关键字即可。而在这样的方式下,文本标注的质量以及准确度直接影响着后续图像的检索的高效性。除此之外,因为图像的涉及范围比较广泛,现有的技术根本达不到对图像自动生成文本描述,因此大多数的TBIR系统依然采用的是人工标注,这样的技术主要存在着以下的问题[5]

a) 工作量大。随着自媒体时代的发展,每个人都是一个图片的形成终端,因此网络上图片的数量较之以前增长迅速,用以前人工标注的方式对每隔图片进行标注相应的文本几乎成了一项不可能完成的工作,这样的繁琐以及耗时,无疑成为了现在的最主要的问题,但是没有进行文本标注的图片是不能被检索出来,这就使得现有的技术形成了一个相当大的矛盾。

b) 不同的人对一幅图像有着完全不同的理解,即使是同一个人,换一个工作环境或者心态,也会造成对一幅图像理解的差异,这就使得在文本标注上的个人主观性,与工作人员所经历的事情以及当时环境有着很大的影响,不利于后续的图像检索的进行。

c) 图像所包含的信息是全方位的,所包含的信息也是巨大的,然而文本标注毕竟有限,不能起到一个很好的标注作用,不能起到检索的关键作用。

d) 因为图片的复杂性以及来源广泛性,也就伴随着语言上的差异,世界各地的人用不同的语言上传的图像可能不能被其他语种的人很好的检索,这就给索引的建立以及后续文本的标注和匹配造成了很大的障碍。

2)基于内容的图像检索阶段

到20世纪90年代初期,随着图像信息的不断增加,基于文本的图像检索技术存在的问题变得越来越突出。由于网络图像数据量的巨大和结构的异常复杂,这种基于文本的图像检索方法已经远远不能满足用户的需求了。为了克服基于文本方式的图像检索所面临的问题,二十世纪九十年代初期,CBIR(Content Based Image Retrieval)[6]作为一门新技术兴起,这种技术的实质就是,用颜色、纹理、形状、目标的位置、方向、区域等底层图像内容特征对图像进行表达和描述,然后用计算机自动提取,建立数据库中图像和查询样本图像的特征空间,在特征空间内进行图像间的相似匹配,进而检索出与待检样本相似的图像。CBIR的主要特点是利用图像本身包含的客观视觉特征 ,图像相似性体现在视觉相似性上 ,不需要人来解释 ,也就不需要或者仅需要少量的人工干预 ,尤其是在需要自动化的场合取得了大量应用。系统的关键是特征提取、相似匹配和检索策略。这种方法融合了图像分割、图像理解、模式分类、机器学习等技术,克服了传统基于文本的检索方法的不足,系统也可将图像文本信息加入作为检索的补充,对该技术的研究己经成为当前的研究热点。

3)基于语义的图像检索

然而,人们判断图像的相似性并非仅仅建立在图像视觉特征的相似性上。用户在进行图像检索时总是存在一个大致概念,这个概念建立在图像所描述的对象、事件以及表达的情感等含义上。理想的状况下,用户主要根据图像的含义,而不是颜色、纹理、形状等特征,直观地进行分类并判别图像满足自己的需要程度。这些图像的含义就是图像的高层语义特征,它包含了人对图像内容的理解,这种理解是无法直接从图像的视觉特征获得的,而要根据人的知识来判断。人与计算机的本质不同就在于人观察图像时结合了日常生活中积累的大量的经验,观察图像的过程同时也是一个利用知识推理图像语义的过程。

图像必须附加上包括语义在内的各种内容信息,才能真正支持语义检索。重要的是要提供建立这些内容信息的过程。利用计算机视觉和机器学习的方法来让系统对于某些特定情况做出特定反应,是长期以来很多研究者努力的方向,对象识别和场景识别即是其中的一部分。使计算机检索图像的能力接近人的理解水平,这就是语义图像检索的目的[7]

语义图像检索是更合理的图像检索方式。虽然目前CBIR作为一项倍受关注的技术在研究和商业方面都取得了一定成果,但由于它只利用了图像本身固有的物理信息,因此,它只在特定的应用领域,如指纹识别、商标检索等方面获得成功。而要使图像检索技术真正满足用户个性化的需要,必须把图像检索看作一个系统,考虑包括人在内的各种因素对于系统的影响。其中主要的工作和面临的困难来自3个方面:①必须提供图像语义的有效描述方式;②必须有提取图像语义描述的方法;③语义检索系统的语义处理方法。

 

 

 

 

 

 

 

 

 

 

第二章 图像检索的研究现状

2.1 图像检索国内外研究现状

自20世纪90年代初以来,国外各大研究机构和公司(如:IBM、MIT、Columbia、Stanford、UCSB、UIUC、Microsoft等)纷纷投入大量的资金和人力进行基于内容的图像检索技术的研究和开发,取得了一些初步的研究成果,并产生了一些原型系统。例如:IBM公司研制的“基于内容检索系统QBIC”,美国Virage 公司开发的 VIR 图像工程系统,麻省理工学院多媒体实验室开发的Photobook系统,哥伦比亚大学开发的基于视觉特征的搜索引擎VisualSEEK和面向WWW的文本或图像搜索引擎WebSEEK系统,UCSB开发的Netra系统等等[8,9]。这些系统大多是基于与人的主观判断无关的图像低层特征进行图像内容描述及相似性匹配的检索系统,有一定的通用性。然而,这些系统却又因为评价图像相似性时主要根据特征的统计特性而忽略了一些诸如空间关系等重要信息,检索精度差;同时又因缺少高层语义知识的支持,检索结果与人类视觉感知效果相差甚远[10]。若要真正实用,在理论上和技术上均有许多问题亟待解决。

从90年代后期我国专家和学者开始致力于CBIR技术的研究,与国外研究成果相比,国内理论和应用的研究相对滞后。但近些年也掀起了研究的高潮,有迎头赶上的趋势,并且取得了一定的研究成果。例如中国科学计算机研究所和北京图书馆联合开发的MIRES系统,清华大学开发的Web上基于内容检索的原型系统等。此外,上海交通大学、华中科技大学、吉林大学、南京理工大学等一些高校也都在开展这方面的研究工作并取得了一定的成绩。

2.2 国内外研究热点

10多年来,随着研究的深入,各种系统和方法层出不穷。人们采用了各种特征提取方法和图像比较策略来描述图像的内容、比较图像间的相似性。目前,基于内容的图像检索技术的研究热点可分为四个方面[11]

1)基于全局特征的图像检索

最初的图像检索技术实现的基础是对全局低层视觉特征的计算和比较,研究主要集中于如何利用图像的低层视觉特征来有效地描述图像的内容和如何度量图像之间的相似性,这种检索技术主要是基于“视觉相似”。然而图像低层视觉特征的相似性并不完全等同于人们主观判断图像的相似性,用户在图像检索时通常会提出概念性的检索要求,这样的概念信息是建立在对图像内容的语义理解的基础上,也就是说人们同时也要求图像“语义相似”。“视觉相似”不等同于“语义相似”的原因在于图像的低层特征与高层语义之间存在着“鸿沟”,这是造成图像检索准确率低的一个非常重要原因。因此如何提取一些更有效的能更好地反映图像高层语义的图像特征显得尤其迫切。目前一些研究机构和团体从事这方面的研究并取得了一些研究成果[12-14]

2) 基于区域的图像检索

用户查询图像时通常更注重图像中具有一定语义信息的特定目标或区域,而不是背景。利用全局直方图、颜色矩等全局特征表示和检索图像时,虽然计算简单,对平移和旋转不敏感,但全局特征无法描述图像内容在空间上的差异,如目标和背景的空间差异,难以有效地表达用户的检索意图,因此人们开始关注基于区域的图像检索。这种检索方法的思想是把图像分割为若干区域,然后提取区域的局部特征来描述和检索图像[15-17],基于区域的检索方法在一定程度上实现了物体层次的图像检索,其处理图像检索的方法和人类理解图像的方式是吻合的,可以取得比全局特征检索更好的效果,成为目前图像检索系统的主流方法。但这种方法面临的最大问题是图像分割问题,由于稳健的自动的图像分割算法目前很难实现,基于区域的检索方法往往需要在用户的辅助下才能完成分割和检索。为了解决这个问题,研究者们开始研究弱分割,并将现有的图像分割技术分为两大类:强分割方法和弱分割方法[18]。前者是指将图像数据分为若干个区域的算法,是传统意义上的图像分割。后者是研究者们根据图像中不同区域对图像语义理解所做的贡献不同,提出一种基于显著区域的图像弱分割方法。显著区域是指图像中最能引起用户兴趣、最能反映图像语义内容的关键区域[19]。基于显著区域的图像检索方法是从人们认知图像的角度出发,把人们观察图像时注视的区域作为显著区域,利用该显著区域的局部显著特征进行的图像检索。由于区分了区域的重要程度,也在一定程度上克服语义鸿沟,因而有效地提高了图像检索效率。基于图像显著性特征的图像检索首先要解决的问题是如何检测图像的显著性区域,研究者们模拟生物体视觉注意机制,建立选择性注意模型,用来度量人们对图像的兴趣,实现基于显著区域的图像检索,取得了一定的成果[20]。图像的显著性分析是目前图像处理和计算机视觉领域内的热点问题,在图像识别、分类、检索等领域得到了广泛应用。

3) 基于图像语义的研究

尽管基于区域的图像检索方法和人们理解图像的方式是吻合的,可以区分区域的重要程度,但图像的相似性依旧是基于低层视觉特征的相似性来度量的。低层视觉特征无法直接反映出图像的主题、主体及其属性等高层语义信息,人们对图像相似性的判断并不是仅仅依赖于图像视觉特征的相似性上,更多的还包含了人们对图像内容的感知和理解。比如人们理解为“日落”的一幅图像,视觉特征描述为“红色或橙色的圆形”,依据视觉特征相似的图像其语义可能差别很大,这将导致CBIR系统在进行某些查询时会得到灾难性的结果[21]。因此,必须给图像附加上包含语义在内的更高层的内容信息,才能使图像检索系统更符合人类的思维习惯。基于图像的语义分类和检索已经成为目前重要的研究热点,其中如何从图像的低层特征中自动提取语义特征,成为基于内容的图像检索领域的一个难题。目前代表性的研究成果有:文献[22-24]等通过引入机器学习算法,结合图像低层特征将图像归并到某种语义类,从而在一定程度上获取了图像的语义标注信息;文献[33-38]等利用低层特征与语义信息相结合,并通过相关反馈学习图像语义。

4) 相关反馈检索技术的研究

相关反馈(Relevance Feedback,RF)是一种查询修正技术,起源于文本检索,随后被引入到基于内容的图像检索领域[25]。RF技术把人的参与引入到检索过程中,并且根据用户的反馈信息动态调整系统检索时采用的特征向量、参与检索的不同特征的权重系数或者检索方案,从而将检索模式从一次进行变成交互式的多次进行,逐步缩小低层特征和高层语义之间的差距,使检索结果朝用户需求靠近,进而提高图像检索效率与精度。相关反馈技术也是基于内容图像检索的一个研究热点,近年来,人们对相关反馈技术的研究取得了很大进展,并陆续提出了基于距离度量的方法、基于概率框架的方法和机器学习方法等[26-29]

总的来说,图像检索己走过了从简单到复杂、从低级到高级、从最初的文本信息查询到基于内容的图像检索的发展历程,但目前仍有许多关键技术尚没有解决或解决措施尚不够完善,尤其在图像特征描述、语义鸿沟、系统性能优化和实用化等方面存在问题仍需要深入研究。

2.3 图像检索的难点

传统的基于文本的图像检索技术是通过关键字或自由文本进行描述,查询操作是基于该图像的文本描述进行精确匹配或概率匹配。基于文本的图像检索方式简单、易于理解,但检索时要指明文本特征。由于人工注释图像的主观性和不准确性等弊端,因此这种传统的图像检索方法并不能满足用户的需求[30]

20世纪90年代初,大规模图像集不断涌现,研究者们提出了基于内容的图像检索。CBIR的主要特点是利用图像本身包含的客观视觉特征,图像相似性体现在视觉相似性上,不需要人来解释,也就不需要或者仅需要少量的人工干预,尤其是在需要自动化的场合取得了大量应用。

然而,人们判断图像的相似性并非仅仅建立在图像视觉特征的相似性上,用户在进行图像检索时总是存在一个大致概念,这个概念建立在图像所描述的对象、事件以及表达的情感等含义上。理想的状况下,用户主要根据图像的含义,而不是颜色、纹理、形状等特征,直观地进行分类并判别图像满足自己的需要程度。这些图像的含义就是图像的高层语义特征,它包含了人对图像内容的理解,这种理解是无法直接从图像的视觉特征获得的,而要根据人的知识来判断。人与计算机的本质不同就在于人观察图像时结合了日常生活中积累的大量的经验,观察图像的过程同时也是一个利用知识推理图像语义的过程。因此,图像检索领域如今面临的最大难题就是如何克服数字图像特征(颜色、形状、纹理等特征)和人类语言描述(也称高层特征)之间的“语义鸿沟”[7]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

第三章 基于决策树的高层次语义检索

为了缩小语义鸿沟本文提出一种基于机器学习的图像检索方法,即基于决策树的高层次语义检索。该方法使用决策树算法从图像的低级特征中提取出语义特征,引入“语义模板“概念以将低级特征映射到高级语义特征,并且此方法设计的图像检索系统支持关键字和图像两种检索方式。

3.1 方案描述

在本方案中系统首先将图像库中的每个图像分割成不同的区域,然后提取每个区域的低级别的颜色和纹理特征。使用由决策树导出的决策规则,每个区域的低级特征(颜色、纹理特征)与专为该图像库定义的高级图像概念中的其中之一相关联。在检索期间,本方案允许用户提供关键字来查询或提供指定来自查询图像的感兴趣区域来查询。对于指定区域的查询,用户从查询图像中选择感兴趣区域作为查询区域。该系统计算查询区域的低级特征和相应的高级概念。然后,从数据库中返回给用户包含有个图像的集合。该集合由包含对应的概念与查询区域所对应的概念相同的区域的那些图像组成。而用关键字查询则简单一些。用户选择一个预定义的概念作为关键字。然后,系统将返回哪些包含与关键字所指定的概念相同的区域的图像。此外,我们还可以依据返回图像中包含的“兴趣”区域与查询区域之间的距离来对返回结果进行排序。系统框图如图3.1所示。

                      

                       图像/关键字

查询

 

 

 

 

 

 

 


图3.1 系统框图

在本方案中首先需要对图片进行分割,图片分割的方法有很多种,由于图像分割不是本文研究的重点,这里就不详细展开。图片被分割成一个个独立的区域后对每个区域分别提取其颜色特征和纹理特征,进而创建基于区域颜色和纹理特征向量。这里假设创建的颜色特征向量是维,纹理特征向量是维。为了消除特征向量中数值的大小对实验结果的影响,在求得特征向量后首先要对其进行归一化。由于决策树中针对每个属性的值都需是离散的,因此在对特征向量归一化后还要对其进行离散化,这也是本方法的难点。下面将对这两方面进行详细的介绍。

3.2特征向量归一化

在提取到特征向量后,针对图片中的每个区域我们得到一个维的颜色特征向量和一个维的纹理特征向量。对两种特征向量中的每一维上的数,使用高斯归一化方法将其规范到[0,1]范围内[31]。假设图像库内的所有图片被分割后一共得到个区域。就维的颜色特征向量的第一维(记为)来说,首先计算 的均差和标准差,分别记为和,然后首先通过公式(3.1)被归一化到[-1,1]。

                             (3.1

根据高斯分布理论,属于[-1,1]的概率是99%[31]。所有超出[-1,1]这个范围的特征值用公式(3.2)映射到[-1,1]。然后,在用公式(3.3)将转化至[0,1]范围内。

                        (3.2)

                                     (3.3)

3.3特征向量离散化

假设图像库中的图像经分割后所得区域共对应个概念例如:草地、森林、天空、城堡、海洋等,每个概念对应的区域有个,则假设概念i=0,…,18中的第j=0,…,29个样本区域,它的颜色和纹理特征向量分别为{,}和{,}以颜色特征向量和纹理特征向量的第一维来说明。由式(3.4)可得出概念基于30个样本的颜色特征向量和纹理特征向量第一维上的平均值。同理可得出每一个概念基于30个样本区域的颜色特征向量和纹理特征向量每一维上的平均值,分别记并分别称其为每一概念的颜色和纹理特征向量的“表征”特征向量

                                                 3.4

得到每一个概念的“表征”特征向量之后,我们就可以用其来离散化每个图像区域的低级特征向量。通过分别计算某一区域的颜色(纹理)特征向量与19个概念对应的颜色(纹理)“表征”向量之间的欧几里得距离,来得到该区域的颜色(纹理)标签。以获得颜色标签为例(纹理标签的获得与其类似),其步骤如下:

1)通过式(3.5)计算该区域的颜色特征向量与19个概念对应的颜色(纹理)“表征”向量之间的欧几里得距离。

                               (3.5

2)找出以上计算结果的最小值。即:。

3)该区域的颜色标签通过式(3.6)得到。这里是颜色阈值,也即该区域的颜色特征区别于概念对应的颜色模板的最大可接受距离。换句话说,如果>,则就颜色特征来说该区域不属于19个概念中的任何一个。如果,则可以将该区域的颜色特征看作概念对应的颜色模板。则是属于概念的30个区域的颜色特征与对应的颜色“表征”向量之间的欧几里得距离的最大值。

                                                 3.6

观察这19个概念不难发现,有些概念(比如太阳),可以用其颜色特征很好的表示。有一些概念用其纹理特征表示则能取得更好的效果,例如;烟花和花朵。然而有些概念则需要结合颜色和纹理特征才能将其有效的表示,例如老虎。为了处理这类情况,我们可以引入颜色-纹理模板,颜色模板的距离测量方法是式(3.7)。也就是区域的颜色特征和纹理特征与指定概念的颜色和纹理“表征”特征向量之间的距离之和。的计算同样是。

                                 (3.7)

该区域的颜色-纹理标签则由式(3.8)决定。

                               (3.8

 

3.4决策树的创建

整个图像库中的所有图像经分割后得到的个区域,其颜色和纹理特征向量经离散化和映射到高级语义后,每个区域都可得到三个属性,即颜色()、纹理()、颜色-纹理()。我们将19个概念统一排序并编号为0,1,…,18,这样每个区域的每个属性上的值都将是离散的且 {0,1,…,18}。依据每个区域的三个属性就可以创建决策树,进而导出决策规则。创建决策树的框图如图3.2所示。

 

 

 

 

 

 

 

 


图3.2 决策树创建框图

 

 

 

 

 

 

 

 

第四章 结论与展望

随着图像的急速增长,图像检索技术已经变得越来越重要。本文简述了图像检索技术的发展历程,并指出了图像检索技术的重要应用背景。同时,结合国内外在图像领域的研究现状表述了现如今该领域的研究热点,同时指出困扰该领域的难点所在,即低层次的数字图像特征与高层次的语义描述之间的“语义鸿沟”。为克服“语义鸿沟”,大量的问题已经被研究,也取得了一定的成果。其中一种方法就是利用机器学习的技术关联图像的低级数字特征与高级语义,进而缩小“语义鸿沟”。本文就是基于这样一种思路而提出一种基于决策树学习的语义图像检索方法。该方法使用决策树算法从图像的低级特征中提取出语义特征,引入“语义模板“概念以将低级特征映射到高级语义特征,以此由决策树建立低级数字特征与高级语义之间的联系,进而导出决策规则。

今后作者将在图像检索方面继续探索,除了使用机器学习的方法以外,还将探索其它的一些方法,例如:使用对象本体定义高级概念、将相关反馈引入检索回路来不断学习用户意向等,以求取得更精确的效果。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

参考文献

[1]姚敏.数字图像处理[M].北京:机械工业出版社,2006.

[2] 庄越挺,潘云鹤,吴飞.网上多媒体信息分析与检索[M].北京:清华大学出版社,2002.

[3] 魏伟一,基于内容的图像检索技术研究. 西北师范大学 硕士研究生毕业论文,2005.

[4] Rocchio J J, Documentretrieval systems-optimization and evaluation[D]. Cambridge: HarvardUniversity,2009.

[5] 赵秋实,注意力驱动的两阶段图像检索方法研究. 东北师范大学 硕士研究生毕业论文,2007.

[6] Gudivada V V, Raghavan V V. Content-Based Image RetrievalSystem[J]. IEEE Computer,1995, 9: 18-22.

[7] 王惠锋 ,孙正兴 ,王箭.语义图像检索研究进展[J].计算机研究与发展,2002(05):513-523.

[8] 冯松鹤.面向感知的图像检索及自动化标注算法研究[D]. 北京交通大学,博士学位论文,2009.

[9] 周明全,耿国华,韦娜.基于内容图像检索技术[M].北京:清华大学出版社,2007.

[10]安志勇.基于内容的图像检索关键技术研究[D]. 西安电子科技大学,博士学位论文,2008.

[11]Zheng D, Peng P, Fan S. A research of dynamic compensation ofcoriolis mass flowmeter based on BP neural networks[J]. Instruments &Experimental Techniques, 2013, 56(3):365-370.

[12] Yue JLi Z B, Liu L,et a1.Content-based image retrieval using colorand texture fused features[J]. Mathematical and ComputerModelling,2011,54:1121-1127.

[13] Yang N C, Chang W H. A fast MPEG-7 dominant color extraction withnew similarity measure for image retrieval[J]. Journal of Visual Communication& Image Representation . 2008,19(2):92-105.

[14] WangX Y, Yu Y J, Yang H Y. An effective image retrieval scheme using color, textureand shape features [J]. Computer Standards & Interfaces,2011,33:59-68.

[15] Wang H, Dai F, ZhangL, Lu S XAn image retrieval method based on texturefeatures of object region[C]InternationalConference on Electronics and Optoelectronics (ICEOE 2011), 4:83-86.

[16] Zeng ZhiyongLiu ShigangA Novel Region-based Image Retrieval Algorithm Using HybridFeature[C].WRI World Congresson Computer Science and Information EngineeringLos AngelesIEEE Computer Society2009416-420.

[17] 王兵,张欣,王苗等.图像主题区域提取及其在图像检索中的应用[J].小型微型计算机系统,2011,32(3):567-571.

[18] Hong, Fu, ZheruChi. An efficient algorithm for attention-driven imageinterpretation from segments [J].Pattern Recognition,2009:126-129.

[19] 斯白露,高文,卢汉清等.基于感兴趣区域的图像检索方法[J].高技术通信,2003,13( 5) : 13-18.

[20] 冯松鹤,郎丛妍,须德.一种融合图学习与区域显著性分析的图像检索算法[J].电子学报,2011,39(10):2288-2294.

[21] S.C.H. Hoi, R. Jin, J. Zhu, M.R. Lyu.Semisupervised SVM batch modeactive learning with applications to image retrieval[J]. ACM Transactions onInformation Systems,2009,27 (3):1-29.

[22]R.J.Liu, Y.H. Wang, SVM-based active feedback in image retrieval using clustering andunlabeled data[J]. Pattern Recognition,2008, 41 (8): 2645-2655.

[23]M.M.Rahman, B.C. Desai, A framework for medical image retrieval using machine learningand statistical similarity matching techniques with relevance feedback[J], IEEETransactions on Information Technology in Biomedicine,2007,11 (1):58-69.

[24]许相莉,张利彪,刘向东,于哲舟,周春光.基于粒子群的图像检索相关反馈算法[J].小型微型计算机系统.2010,38(8):1935-1940.

[25]MiguelArevalillo-Herráez, Francesc J. Ferri, Salvador Moreno-Picot. Distance-based relevancefeedback using a hybrid interactive genetic algorithm for image retrieval[J]. AppliedSoft Computing. 2011,11:1782-1791.

[26]Wu J,Fu Y, Lu M. Bayesian active learning in retrieval feedback for imageretrieval[C].Proceedings of 2nd international symposium on intelligentinformation technology application.China:Inst. Of Elec, 2008.371-375.

[27]Ves EDomingoJet a1AnovelBayesian framework for relevance feedback in image content-based retrievalsystem [J] . Pattern Recognition,2006,39:1622-1632.

[28]Zhou Z-HWhen semi-supervised learning meets ensemble learning [C]Proc Int Workshop Multiple Classifier SystemBerfinSpringer2009,529-538.

[29] Zheng LWangShaojun, Liu Yan, et a1Information theoretic regularization forsemi-supervised boosting[C].ACM SIGKDD Conf KnowledgeDiscovery and Data MiningParisFranceACMPress2009.1017-1026.

[30]蔡琴. 基于内容的图像检索综述[J].考试周刊, 2013(8):120-122.

[31]Y.Rui, T.S. Huang, M. Ortega, S. Mehrotra, Relevance feedback: a power tool forinteractive content-based image retrieval, IEEE Trans. Circuits Video Technol.8 (5) (1998) 644–655.

 

 

 

 

 

 

 

 

 

 

 

 

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值