Lucene学习笔记

 

Lucene学习笔记

Lucene的概述:

1.1 什么是lucene

http://cloudera.iteye.com/blog/656459

这是一篇很好的文章。下面便是取自这里。

Lucene是一个全文搜索框架,而不是应用产品。因此它并不像http://www.baidu.com/ 或者google Desktop那么拿来就能用,它只是提供了一种工具让你能实现这些产品。

1.2 lucene能做什么

要回答这个问题,先要了解lucene的本质。实际上lucene的功能很单一,说到底,就是你给它若干个字符串,然后它为你提供一个全文搜索服务,告诉你你要搜索的关键词出现在哪里。知道了这个本质,你就可以发挥想象做任何符合这个条件的事情了。你可以把站内新闻都索引了,做个资料库;你可以把一个数据库表的若干个字段索引起来,那就不用再担心因为“%like%”而锁表了;你也可以写个自己的搜索引擎……

1.3 你该不该选择lucene

下面给出一些测试数据,如果你觉得可以接受,那么可以选择。

测试一:250万记录,300M左右文本,生成索引380M左右,800线程下平均处理时间300ms。

测试二:37000记录,索引数据库中的两个varchar字段,索引文件2.6M,800线程下平均处理时间1.5ms。

2 lucene的工作方式

lucene提供的服务实际包含两部分:一入一出。所谓入是写入,即将你提供的源(本质是字符串)写入索引或者将其从索引中删除;所谓出是读出,即向用户提供全文搜索服务,让用户可以通过关键词定位源。

2.1写入流程

源字符串首先经过analyzer处理,包括:分词,分成一个个单词;去除stopword(可选)。

将源中需要的信息加入Document的各个Field中,并把需要索引的Field索引起来,把需要存储的Field存储起来。

将索引写入存储器,存储器可以是内存或磁盘。

2.2读出流程

用户提供搜索关键词,经过analyzer处理。

对处理后的关键词搜索索引找出对应的Document。

用户根据需要从找到的Document中提取需要的Field。

3 一些需要知道的概念

lucene用到一些概念,了解它们的含义,有利于下面的讲解。

3.1 analyzer

Analyzer 是分析器,它的作用是把一个字符串按某种规则划分成一个个词语,并去除其中的无效词语,这里说的无效词语是指英文中的“of”、 “the”,中文中的 “的”、“地”等词语,这些词语在文章中大量出现,但是本身不包含什么关键信息,去掉有利于缩小索引文件、提高效率、提高命中率。

分词的规则千变万化,但目的只有一个:按语义划分。这点在英文中比较容易实现,因为英文本身就是以单词为单位的,已经用空格分开;而中文则必须以某种方法将连成一片的句子划分成一个个词语。具体划分方法下面再详细介绍,这里只需了解分析器的概念即可。

3.2 document

用户提供的源是一条条记录,它们可以是文本文件、字符串或者数据库表的一条记录等等。一条记录经过索引之后,就是以一个Document的形式存储在索引文件中的。用户进行搜索,也是以Document列表的形式返回。

3.3 field

一个Document可以包含多个信息域,例如一篇文章可以包含“标题”、“正文”、“最后修改时间”等信息域,这些信息域就是通过Field在Document中存储的。

Field有两个属性可选:存储和索引。通过存储属性你可以控制是否对这个Field进行存储;通过索引属性你可以控制是否对该Field进行索引。这看起来似乎有些废话,事实上对这两个属性的正确组合很重要,下面举例说明:

还是以刚才的文章为例子,我们需要对标题和正文进行全文搜索,所以我们要把索引属性设置为真,同时我们希望能直接从搜索结果中提取文章标题,所以我们把标题域的存储属性设置为真,但是由于正文域太大了,我们为了缩小索引文件大小,将正文域的存储属性设置为假,当需要时再直接读取文件;我们只是希望能从搜索解果中提取最后修改时间,不需要对它进行搜索,所以我们把最后修改时间域的存储属性设置为真,索引属性设置为假。上面的三个域涵盖了两个属性的三种组合,还有一种全为假的没有用到,事实上Field不允许你那么设置,因为既不存储又不索引的域是没有意义的。

3.4 term

term是搜索的最小单位,它表示文档的一个词语,term由两部分组成:它表示的词语和这个词语所出现的field。

3.5 tocken

tocken是term的一次出现,它包含trem文本和相应的起止偏移,以及一个类型字符串。一句话中可以出现多次相同的词语,它们都用同一个term表示,但是用不同的tocken,每个tocken标记该词语出现的地方。

3.6 segment

添加索引时并不是每个document都马上添加到同一个索引文件,它们首先被写入到不同的小文件,然后再合并成一个大索引文件,这里每个小文件都是一个segment。

4 lucene的结构

lucene包括core和sandbox两部分,其中core是lucene稳定的核心部分,sandbox包含了一些附加功能,例如highlighter、各种分析器。 Lucene core有七个包:analysis,document,index,queryParser,search,store,util。对于4.5版本不是这7个包,而是如下:

wps_clip_image-29703

关于这些的详细介绍,后面再说。

环境的准备:

1. 先下载开发的jar包:http://lucene.apache.org/

wps_clip_image-11981

http://apache.dataguru.cn/lucene/java/4.5.0/

wps_clip_image-15754

我们把zip和src下载下来就可以了。

2. 对于开源的框架,一般使用都有2个步骤

a) 添加jar包

为了项目的可移植性,我们应该建立一个lib文件夹,专门放外部的jar包,然后把需要的jar包放入到这个目录,最后在链接进项目里面

b) 配置文件

3. 根据开发文档搭建环境

a) 先读readme文件,他会告诉你怎么用,告诉你这项目是什么

b) 再根据a)的指导,读取相应的文件,也就是docs/index.html

c) Index只指导我们看demon,于是只能网上搜索demo怎么用

下面是demon的使用方法:

http://blog.csdn.net/wyj0613/article/details/12318825

我们按照这个做法做就是了(预告:最后没有找到怎么搭建工程的方法)

i) 定义环境变量:CLASSPATH的值如下:

D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\core\lucene-core-4.5.0.jar;

D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\demo\lucene-demo-4.5.0.jar;D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\queryparser\lucene-queryparser-4.5.0.jar;

D:\soft_framework_utiles\lucene-4.5.0\lucene-4.5.0\analysis\common\lucene-analyzers-common-4.5.0.jar;

把这个4个jar放进去就是了。

j) 开始测试demonà建立索引

java org.apache.lucene.demo.IndexFiles -index [index folder] -docs[docs folder]

设置要生成的索引的文件夹和要解析的docs

我们的doc目录用:demo\lf_test_docs_dir

生成的index目录用:demo\lf_test_index_dir

下面就是执行过程:

wps_clip_image-20503

我们可以去看index目录的生成的文件:

wps_clip_image-10321

k) 开始测试demonà执行查询

java org.apache.lucene.demo.SearchFiles

将会出现“Query:”提示符,在其后输入关键字,回车,即可得到查询结果

wps_clip_image-19316

由于SearchFiles是查找当前目录下面的index目录作为索引文件目录,所以这

里报错了,我们可以用-index参数指定我们的index目录:

wps_clip_image-3147

可以看到查询mozilla得到3个文档有这个关键字。

wps_clip_image-499

4. 到教学的东西,那么我们就查资料吧,下面是做法

需要的jar包是:

Ø lucene-core-4.5.0.jar 核心包

Ø lucene-analyzers-common-4.5.0.jar 分词器

Ø lucene-highlighter-4.5.0.jar 高亮器

添加到项目buildpath:

wps_clip_image-5029

如下显示就对了:

wps_clip_image-29955

5. 写我们自己的代码了

先生成索引:(代码插件挺好用啊)
  
  
Document document = LuceneUtiles.getDocument(filePath); // 存放索引的目录 Directory indexDirectory = FSDirectory.open( new File(indexPath)); // 这里默认使用的模式是:openMode = OpenMode.CREATE_OR_APPEND; // IndexWriterConfig的父类构造是初始化的 IndexWriterConfig indexWriterConfig = new IndexWriterConfig(Version.LUCENE_45, analyzer); // 索引的维护是用IndexWriter来做的,把doc添加进去,更新,删除就行了 IndexWriter indexWriter = new IndexWriter(indexDirectory,indexWriterConfig); indexWriter.addDocument(document); // 所有io操作的,最后都应该关闭,比如file,network,database等 indexWriter.close(); 查询: public void searchFromIndex() throws IOException { // 只能全小写才可以!因为我们term没有经过分词器处理! // 所以只能用直接跟索引库的关键字一一对应的值 // 以后讲解把索引字符串也处理的方法 String queryString = " binary " ; // 1.收索字符串--->Query对象 Query query = null ; { // 注意: // 因为文件在建立索引的时候(分词器那里),就已经做了一次大小写转换了, // 存的索引全是小写的 // 而我们这里搜索的时候没有通过分词器,所以我们的数据没有转化, // 那么如果这里是大写类型就搜不到任何东西!!! Term term = new Term( " fileContent " ,queryString); // 至于这里用什么Query,以后再说 query = new TermQuery(term); } // 2.进行查询 TopDocs topDocs = null ; IndexSearcher searcher = null ; IndexReader indexReader = null ; { // 指定索引的文件位置 indexReader = DirectoryReader.open(FSDirectory.open( new File(indexPath))); searcher = new IndexSearcher(indexReader); Filter filter = null ; // 搜索 // 过滤器,可以过滤一些文件,null就是不用过滤器 // 数字代表每次查询多少条,也就是一次数据的读取读多少条, // 1000,10000等比较合适,默认是50 // topDocs = searcher.search(query, filter, 1000 ); } // 3.打印结果 { System.out.println( " 总共有【 " + topDocs.totalHits + " 】条匹配结果 " ); // 这是返回的数据 for ( int i = 0 ; i < topDocs.scoreDocs.length; i ++ ) { int docId = topDocs.scoreDocs[i].doc; Document hittedDocument = searcher.doc(docId); LuceneUtiles.print(hittedDocument); } } indexReader.close(); }

6. 讲解

点击类名,使用ctrl+T实现查询该类的子类,即继承关系!

下面是Lucene的大体结构图:

原理是先把文章根据需求用分词器拆分,然后建立好每一个关键词到文章的映射关系,这就是索引表,索引表存放的就是关键字到文章的映射,注意这里的映射不是直接就持有了对应的文章,而是持有的内部对文章编号的一个id。所以索引是关键字到文章Id的一个映射。

当用户查询时,也用之前的分词器,把查询分词,然后每一个词都挨着找索引,把匹配的返回出来就完毕了。

wps_clip_image-568(别人的图片)

a) Analysis:分词器

Analysis包含一些内建的分析器,例如按空白字符分词的WhitespaceAnalyzer,添加了stopwrod过滤的StopAnalyzer,最常用的StandardAnalyzer。

b) Documet:文档

就是我们的源数据的封装结构,我们需要把源数据分成不同的域,放入到documet里面,到时搜索时也可以指定搜索哪些域(Field)了。

c) Directory : 目录,这是对目录的一个抽象,这个目录可以是文件系统上面的一个dir(FSDirectory),也可以是内存的一块(RAMDirectory),MmapDirectory为使用内存映射的索引。

放在内存的话就会避免IO的操作耗时了,根据需要选择就是了。

d) IndexWriter : 索引书写器,也就是维护器,对索引进行读取和删除操作的类

e) IndexReader : 索引读取器,用于读取指定目录的索引。

f) IndexSearcher : 索引的搜索器,就是把用户输入拿到索引列表中搜索的一个类

需要注意的是,这个搜索出来的就是(TopDocs)索引号,还不是真正的文章。

g) Query : 查询语句,我们需要把我们的查询String封装成Query才可以交给Searcher来搜索 ,查询的最小单元是Term,Lucene的Query有很多种,根据不同的需求选用不同的Query就是了.

i. TermQuery:

如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:

  
  
Term t = new Term( " content " , " lucene " ); Query query = new TermQuery(t);

ii. BooleanQuery:多个query的【与或】关系的查询

如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:

  
  
TermQuery termQuery1 = new TermQuery( new Term( " content " , " java " ); TermQuery termQuery 2 = new TermQuery( new Term( " content " , " perl " ); BooleanQuery booleanQuery = new BooleanQuery(); booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD); booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);

iii. WildcardQuery : 通配符的查询

如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:

Query query = new WildcardQuery(new Term("content", "use*");

iv. PhraseQuery : 在指定的文字距离内出现的词的查询

你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:

PhraseQuery query = new PhraseQuery();

query.setSlop(5);

query.add(new Term("content ", “中”));

query.add(new Term(“content”, “日”));

那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。

v. PrefixQuery : 查询词语是以某字符开头的

如果你想搜以‘中’开头的词语,你可以用PrefixQuery:

PrefixQuery query = new PrefixQuery(new Term("content ", "中");

vi. FuzzyQuery : 相似的搜索

FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:

Query query = new FuzzyQuery(new Term("content", "wuzza");

你可能得到‘fuzzy’和‘wuzzy’。

vii. TermRangeQuery : 范围内搜索

你也许想搜索时间域从20060101到20060130之间的document,你可以用TermRangeQuery:

TermRangeQuery query2 = TermRangeQuery.newStringRange("time", "20060101", "20060130", true, true);

最后的true表示用闭合区间。

viii.

h) TopDocs :结果集,就是searcher搜索的结果,里面就是一些ScoreDoc,这个对象的doc成员就是这个Id了!

要想得到文章,那么就得需要用这个Id去取文章了,searcher提供了用id得到document的方法,于是就取到了数据了

i)

7.

使用多个Directory

因为我们知道了FSDirectory是从文件系统的目录中读取数据,我们总不可能每次查询都从文件中读取一次索引吧,所以我们的做法应该是程序启动时就把所以载入到内存,退出时再回写,如下面的示意图:

wps_clip_image-10394(也是别人的图片)

使用内存的目录:RAMDirectory

这样可以加快访问速度

  
  
/** * 测试使用RAMDirectroy,也就是把生成的索引写到内存而不是磁盘. * 运行这个方法,不报错就代表成功了。 * 平时我们是把索引文件写道文件系统的,这里就是写道RAM中,以后读取也 * 可以在这个目录读取,快速! * @throws IOException */ @Test public void testWriteInToRam() throws IOException { Directory directory = new RAMDirectory(); IndexWriterConfig config = new IndexWriterConfig(Version.LUCENE_45, analyzer); IndexWriter indexWriter = new IndexWriter(directory, config); indexWriter.addDocument(LuceneUtiles.getDocument(filePath)); indexWriter.close(); }
从文件系统的目录载入到ram中,然后进行操作,最后保存回去

下面是实例代码:

  
  
/** * 从磁盘的索引文件中读取放入到RAM目录, * 然后进行一系列的其他操作。 * 退出时再把RAM的写回文件系统。 * @throws IOException */ @Test public void testLoadIntoRamAndWriteBacktoFS() throws IOException { // 1.启动时载入 Directory fsDir = FSDirectory.open( new File(indexPath)); RAMDirectory ramDir = new RAMDirectory(fsDir, new IOContext()); // 中途操作内存中的数据 IndexWriterConfig ramIndexWriterConfig = new IndexWriterConfig(Version.LUCENE_45, analyzer); IndexWriter ramIndexWriter = new IndexWriter(ramDir, ramIndexWriterConfig); // 添加一个文件,这好像没有写进去!!!!!!! // 不是没写进去,而是这个方法没有执行!因为test方法一定要加@Test注解! ramIndexWriter.addDocument( LuceneUtiles.getDocument(filePath)); ramIndexWriter.close(); // 要先关闭,因为还有缓存。 // 2.退出时保存写回,因为默认是CREATE_OR_APPEND // 所以这里就会把AABBCC读出来之后,加上DD // 那么写回去的数据时AABBCCDD,但是已经本地有存储了, // 所以是append的方式,于是最后的结果是 // AABBCCAABBCCDD,就是重复的了。可以search同一个关键字, // 看结果数量就知道了 // 会1条变3条,3条变7条,这种*2+1的形式 // // 我们可以每次都重写,就能解决了 IndexWriterConfig fsIndexWriterConfig = new IndexWriterConfig(Version.LUCENE_45, analyzer); // 设置每次重写 fsIndexWriterConfig.setOpenMode(OpenMode.CREATE); IndexWriter fsIndexWriter = new IndexWriter(fsDir, fsIndexWriterConfig); fsIndexWriter.addIndexes(ramDir); fsIndexWriter.close(); }
合并索引

因为每添加一个文档的索引,都会建立多个小的文件存放索引,所以文档多了之后,IO操作就很费时间了,于是我们需要合并小文件,每一个小文件就是segment。合并代码如下,需要注意的是:

a) 我们不能直接把索引库打开,用Creat_OR_Append的方式强制写回

他会出现叠加的问题

b) 要每次都用Create的方式写回

但是不能再写回自己的目录,因为同一个目录不支持又读又写,必须指定其他的目录

c) 指定其他目录存放Merge的索引,在写回之前,应该把之前的索引添加到IndexWriter中,这样才把会有数据

  
  
/** * 索引库文件优化,貌似没有提供保存优化的接口 * 多半内部封装好的,外界不用管。只有一个强制合并的接口。 * 这就是用于合并。 * @throws IOException */ @Test public void testYouHua() throws IOException { Directory fsDirectory_Merged = FSDirectory.open( new File(indexPathMerged)); Directory fsDirectory = FSDirectory.open( new File(indexPath)); IndexWriterConfig indexWriterConfig = new IndexWriterConfig(Version.LUCENE_45, analyzer); indexWriterConfig.setOpenMode(OpenMode.CREATE); IndexWriter indexWriter = new IndexWriter(fsDirectory_Merged, indexWriterConfig); // forceMerge(1)可以把所以的段合并成1个,但是每次都会增加一份, // 就是像拷贝了一份加入一样 // 难道是该指定OpenMode.CREATE,如果指定了CREATE, // 但是呢IndexWriter里面没有添加doc索引(即addDoc等方法), // 所以写进去就编程空索引库了,于是需要先读出来再写回 // 于是还应该把索引加到writer里面 // // 把自己加入进去,然后再用每次都create的办法保持不会新增 // 注意不能添加到自己,所以还得新建一个库才可以,这样就不会叠加了 indexWriter.addIndexes(fsDirectory); indexWriter.commit(); indexWriter.forceMerge( 1 ); indexWriter.close(); }

分词器(Analyzer)

在前面的概念介绍中我们已经知道了分析器的作用,就是把句子按照语义切分成一个个词语。英文切分已经有了很成熟的分析器: StandardAnalyzer,很多情况下StandardAnalyzer是个不错的选择。甚至你会发现StandardAnalyzer也能对中文进行分词。

但是我们的焦点是中文分词,StandardAnalyzer能支持中文分词吗?实践证明是可以的,但是效果并不好,搜索“如果” 会把“牛奶不如果汁好喝”也搜索出来,而且索引文件很大。那么我们手头上还有什么分析器可以使用呢?core里面没有,我们可以在sandbox里面找到两个: ChineseAnalyzer和CJKAnalyzer。但是它们同样都有分词不准的问题。相比之下用StandardAnalyzer和 ChineseAnalyzer建立索引时间差不多,索引文件大小也差不多,CJKAnalyzer表现会差些,索引文件大且耗时比较长。

要解决问题,首先分析一下这三个分析器的分词方式。StandardAnalyzer和ChineseAnalyzer都是把句子按单个字切分,也就是说 “牛奶不如果汁好喝”会被它们切分成“牛 奶 不 如 果 汁 好 喝”;而CJKAnalyzer则会切分成“牛奶 奶不 不如 如果 果汁 汁好好喝”。这也就解释了为什么搜索“果汁”都能匹配这个句子。

以上分词的缺点至少有两个:匹配不准确和索引文件大。我们的目标是将上面的句子分解成 “牛奶 不如 果汁好喝”。这里的关键就是语义识别,我们如何识别“牛奶”是一个词而“奶不”不是词语?我们很自然会想到基于词库的分词法,也就是我们先得到一个词库,里面列举了大部分词语,我们把句子按某种方式切分,当得到的词语与词库中的项匹配时,我们就认为这种切分是正确的。这样切词的过程就转变成匹配的过程,而匹配的方式最简单的有正向最大匹配和逆向最大匹配两种,说白了就是一个从句子开头向后进行匹配,一个从句子末尾向前进行匹配。基于词库的分词词库非常重要,词库的容量直接影响搜索结果,在相同词库的前提下,据说逆向最大匹配优于正向最大匹配。

当然还有别的分词方法,这本身就是一个学科,我这里也没有深入研究。回到具体应用,我们的目标是能找到成熟的、现成的分词工具,避免重新发明车轮。经过网上搜索,用的比较多的是中科院的 ICTCLAS和一个不开放源码但是免费的JE-Analysis。ICTCLAS有个问题是它是一个动态链接库, java调用需要本地方法调用,不方便也有安全隐患,而且口碑也确实不大好。JE-Analysis效果还不错,当然也会有分词不准的地方,相比比较方便放心。

下面就是分词器的例子:

  
  
/** * <pre> * 测试分词器的,分词器分出来的关键字我们叫做Token * 分词器一般需要完成的工作是: * 1.词组拆分 * 2.去掉停用词 * 3.大小写转换 * 4.词根还原 * * 对于中文分词,通常有3种:单词分词,二分法,词典分词。 * 单词分词:就分成一个一个的单个字,比如{ @link StandardAnalyzer}, * 如分成 我-们-是-中-国-人 * 二分法分词:按2个字分词,即 我们-们是-是中-中国-国人,实现是是 * { @link CJKAnalyzer} * 词典分词:按照某种算法构造词,然后把词拿到词典里面找,如果是词,就算对了。 * 这是目前的好用的,可以分词成 我们-中国人, * 好用的有【极易分词:MMAnalyzer】,还有就是【庖丁分词】目前没有找到适用于4.5的。 * 还有一个牛的,是中科院的。能分出帽子和服装。这些需要外界提供,需要下载jar包 * </pre> * * @author LiFeng * */ public class AnalyzerTest { String enString = " it must be made available under this Agreement,”+ for more information : infor.doc " ; String zhString = " 你好,我是中国人,我的名字是李锋。 " ; // 这个分词器用于英文的,没有形态还原 // 如果拿去分中文的话,每一个字都被拆开了,测试下就晓得了 Analyzer enAnalyzer = new StandardAnalyzer(Version.LUCENE_45); // 可以按点分开,没有形态还原 // 对于中文的话,他也只按标点分:你好 我是中国人 我的名字是李锋这3个token Analyzer simpleAnalyzer = new SimpleAnalyzer(Version.LUCENE_45); // 分中文就是二分法 // 分英文就是:单词分开就完了 Analyzer cjkAnalyzer = new CJKAnalyzer(Version.LUCENE_45); // lucene4.5使用je-analysis-1.5.3.jar会崩溃,因为好多都改了 Analyzer jeAnalyzer = new MMAnalyzer(); // 词库分词,比如极易 String testString = enString; Analyzer testAnalyzer = jeAnalyzer; /** * 得到分词器拆分出来的关键字(Token) * * @throws IOException */ @Test public void testGetTokens() throws IOException { // 得到分出来的词流 // fileName就是我们当时创建document时一样的意思 // 我们这里是要得到分出的词,跟他要归属哪个filed无关,所以不用管 // 查看enAnalyzer的tokenStream的帮助,他叫们参考: // See the Analysis package documentation for some examples // demonstrating this. // 于是打开对于的文档如下: // docs/core/org/apache/lucene/analysis/ // package-summary.html#package_description // 这里面会有例子的!!! // 下面是文档的例子 { // 分词器把文本分词token流 TokenStream tokenStream = testAnalyzer.tokenStream( " myfield " , new StringReader(testString)); OffsetAttribute offsetAtt = tokenStream.addAttribute(OffsetAttribute. class ); try { // Resets this stream to the beginning. (Required) tokenStream.reset(); while (tokenStream.incrementToken()) { // 这里传入true就可以看到更详细的信息,调试用很好 // 打印token的信息 System.out.println( " token: " + tokenStream.reflectAsString( false )); // 可以去除token存放的开始和结束 // System.out.println("token start offset: " // + offsetAtt.startOffset()); // System.out.println(" token end offset: " // + offsetAtt.endOffset()); } tokenStream.end(); } finally { // Release resources associated with this stream. tokenStream.close(); } } } }

高亮器highlighter

高亮器帮我们做两件事,第一件就是搜索结果的摘要,第二件事就是整体内容的关键字高亮。

高亮的原理就是在关键字周围加上html标签就是了。

  
  
String indexPath = " D:\\WorkspacesForAll\\Lucene\\Lucene-00010-HelloWorld\\lf_index " ; Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_45); @Test public void testHightlight() throws IOException, InvalidTokenOffsetsException { // 查询fileContent字段的reproduce关键字 // 这里的filed指定就是用于找到符合的document // 在高亮器初始化的时候Scorer类也用到了这个query // 其实过程就是: // 1.先把某个域出现关键字的doc全部找出来 // 2.再用高亮器,在找到的文章中, // 把指定域的内容提取一部分有关键字的文本,加上高亮就完毕了 Query query = new TermQuery( new Term( " fileContent " , " reproduce " )); // 高亮器的初始化准备 Highlighter highlighter = null ; { Formatter formatter = new SimpleHTMLFormatter( " <font color='red'> " , " </font> " ); Scorer fragmentScorer = new QueryScorer(query); highlighter = new Highlighter(formatter, fragmentScorer); // 摘要只取50个字符 Fragmenter fragmenter = new SimpleFragmenter( 50 ); highlighter.setTextFragmenter(fragmenter); } IndexReader indexReader = DirectoryReader.open( FSDirectory.open( new File(indexPath))); IndexSearcher searcher = new IndexSearcher(indexReader); TopDocs topDocs = searcher.search(query, null , 1000 ); System.out.println( " 找到【 " + topDocs.totalHits + " 】个: " ); for ( int i = 0 ; i < topDocs.scoreDocs.length; i ++ ) { int docId = topDocs.scoreDocs[i].doc; Document document = searcher.doc(docId); // 用高亮器返回摘要 // 参数1就是用指定的分词器, // 参数2目前不知道咋用 // 参数3就是我们需要处理哪一段文本的数据,把这段文件实现高亮并返回摘要 // 返回的就是高亮之后的摘要了,没有就是null String ret = highlighter.getBestFragment( analyzer, " anyString " ,document.get( " fileContent " ) ); // String ret = highlighter.getBestFragment( // analyzer, "anyString",document.get("noThisFiled") ); if (ret != null ) { System.out.println(ret); } else { String defaultString = document.get( " fileContent " ); System.out.println( " 不高亮: " + defaultString); } } }

查询

查询有两种大类:

第一种是使用查询字符串,有查询语法的。就像直接输入sql语句一样。

第二种就是查询对象,即用query类来组合成复杂查询。这个在概述的时候已经讲过了。

对象查询:

常用的有:TermQuery,BooleanQuery,WildcardQuery,PhraseQuery,PrefixQuery,TermRangeQuery等查询。对象查询对应的语法可以直接打印出来system.out.println(query);

TermQuery:

如果你想执行一个这样的查询:“在content域中包含‘lucene’的document”,那么你可以用TermQuery:

Term t = new Term("content", " lucene");

Query query = new TermQuery(t);

BooleanQuery

多个query的【与或】关系的查询

如果你想这么查询:“在content域中包含java或perl的document”,那么你可以建立两个TermQuery并把它们用BooleanQuery连接起来:

TermQuery termQuery1 = new TermQuery(new Term("content", "java");

TermQuery termQuery 2 = new TermQuery(new Term("content", "perl");

BooleanQuery booleanQuery = new BooleanQuery();

booleanQuery.add(termQuery1, BooleanClause.Occur.SHOULD);

booleanQuery.add(termQuery2, BooleanClause.Occur.SHOULD);

wps_clip_image-26019

反正这个就是lucene的东西,记到就是了

WildcardQuery

通配符的查询

如果你想对某单词进行通配符查询,你可以用WildcardQuery,通配符包括’?’匹配一个任意字符和’*’匹配零个或多个任意字符,例如你搜索’use*’,你可能找到’useful’或者’useless’:

Query query = new WildcardQuery(new Term("content", "use*");

PhraseQuery

在指定的文字距离内出现的词的查询

你可能对中日关系比较感兴趣,想查找‘中’和‘日’挨得比较近(5个字的距离内)的文章,超过这个距离的不予考虑,你可以:

PhraseQuery query = new PhraseQuery();

query.setSlop(5);

query.add(new Term("content ", “中”));

query.add(new Term(“content”, “日”));

那么它可能搜到“中日合作……”、“中方和日方……”,但是搜不到“中国某高层领导说日本欠扁”。

PrefixQuery

查询词语是以某字符开头的

如果你想搜以‘中’开头的词语,你可以用PrefixQuery:

PrefixQuery query = new PrefixQuery(new Term("content ", "中");

FuzzyQuery : 相似的搜索

FuzzyQuery用来搜索相似的term,使用Levenshtein算法。假设你想搜索跟‘wuzza’相似的词语,你可以:

Query query = new FuzzyQuery(new Term("content", "wuzza");

你可能得到‘fuzzy’和‘wuzzy’。

TermRangeQuery

范围查询:范围内搜索

你也许想搜索时间域从20060101到20060130之间的document,你可以用TermRangeQuery:

TermRangeQuery query2 = TermRangeQuery.newStringRange("time", "20060101", "20060130", true, true);

最后的true表示用闭合区间。

查询语法

官方的文档里面有: lucene-4.5.0\docs\index.html里面就有如下的链接,可以查看。

wps_clip_image-3951

我们直接调用query的toString就可以得到他们的查询语法。

查询某field的关键字,对应的对象就是TermQuery,我们大印就知道了,格式是:

[域名字]:[查找的关键字],比如fileContent:absc,就是查找fileContent域的关键字asbsc.

下面是总结:

如果遇到类找不到,那么就多半是jar包有的没有导入,下面的代码就会说明这点

需要使用QueryParser需要的jar等下面都有说明:

lucene-queryparser-4.5.0.jar -à 用于QueryParser

lucene-queries-4.5.0.jar -à 有些查询会用到,比如通配符查询

lucene-memory-4.5.0.jar -à 有些查询会用到,所以都导入就是了

TermQuery可以用“field:key”方式,例如“content:lucene”。

BooleanQuery中‘与’用‘+’,‘或’用‘ ’,例如“content:java contenterl”。

WildcardQuery仍然用‘?’和‘*’,例如“content:use*”。

PhraseQuery用‘~’,例如“content:"中日"~5”。

PrefixQuery用‘*’,例如“中*”。

FuzzyQuery用‘~’,例如“content: wuzza ~”。

RangeQuery用‘[]’或‘{}’,前者表示闭区间,后者表示开区间,例如“time:[20060101 TO 20060130]”,注意TO区分大小写。

你可以任意组合query string,完成复杂操作,例如“标题或正文包括lucene,并且时间在20060101到20060130之间的文章”可以表示为:“+ (title:lucene content:lucene) +time:[20060101 TO 20060130]”。

下面是代码:

  
  
1 /** 2 3 * 学习查询语句的例子。 4 5 * 查询分两种: 6 7 * 一个是使用查询字符串。 8 9 * 另一个就是使用对象来查询,这个对象就是{ @link Query}对象的子类来查询 10 11 * 12 13 * 对象查询的话有几个几个很重要: 14 15 * @author LiFeng 16 17 * 18 19 */ 20 21 public class QueryTest { 22 23 String indexPath = ****** Lucene - 00010 - HelloWorld\\lf_index " ; 24 25 Analyzer analyzer = new StandardAnalyzer(Version.LUCENE_45); 26 27 /** 28 29 * 用查询字符串查询 30 31 * 如果qString中指定了查询的域"fileContent:abdc", 32 33 * 那么QueryParser构造时的指定的域就被覆盖。 34 35 * 如果qString中没有指定域"abdc",那么就用QueryParser构造时的指定的域。 36 37 * @param qString 38 39 * @throws ParseException 40 41 */ 42 43 public void queryData(String qString) throws ParseException 44 45 { 46 47 // 如果qString没有指定域就会用这个域来查询 48 49 QueryParser parser = 50 51 new QueryParser(Version.LUCENE_45, " fileContent " , analyzer); 52 53 queryData(parser.parse(qString)); 54 55 } 56 57 /** 58 59 * 默认在fileContent域中查找高亮的数据 60 61 * @param query 62 63 */ 64 65 public void queryData(Query query) 66 67 { 68 69 System.out.println( " Query: " + query); 70 71 String fieldForHighLight = " fileContent " ; 72 73 // 高亮器的初始化准备 74 75 Highlighter highlighter = null ; 76 77 { 78 79 Formatter formatter = new SimpleHTMLFormatter( 80 81 " <font color='red'> " , " </font> " ); 82 83 Scorer fragmentScorer = new QueryScorer(query); 84 85 highlighter = new Highlighter(formatter, fragmentScorer); 86 87 // 摘要只取50个字符 88 89 Fragmenter fragmenter = new SimpleFragmenter( 50 ); highlighter.setTextFragmenter(fragmenter); 90 91 } 92 93 IndexReader indexReader = null ; 94 95 try { 96 97 indexReader = DirectoryReader.open( 98 99 FSDirectory.open( new File(indexPath))); 100 101 IndexSearcher searcher = new IndexSearcher(indexReader); 102 103 TopDocs topDocs = searcher.search(query, 1000 ); 104 105 // 打印结果 106 107 { 108 109 System.out.println( " 总共有【 " + topDocs.totalHits + 110 111 " 】条匹配结果 " ); 112 113 // 这是返回的数据 114 115 for ( int i = 0 ; i < topDocs.scoreDocs.length; i ++ ) { 116 117 int docId = topDocs.scoreDocs[i].doc; 118 119 Document hittedDocument = searcher.doc(docId); 120 121 // 用高亮器返回摘要 122 123 // 参数1就是用指定的分词器, 124 125 // 参数2目前不知道咋用 126 127 // 参数3就是我们需要处理哪一段文本的数据, 128 129 // 把这段文件实现高亮并返回摘要 130 131 // 返回的就是高亮之后的摘要了,没有就是null 132 133 String ret = highlighter.getBestFragment( 134 135 analyzer, 136 137 " anyString " , 138 139 hittedDocument.get(fieldForHighLight) ); 140 141 if (ret != null ) { 142 143 System.out.println(ret); 144 145 } else { // 没有找到就输出全文 146 147 String defaultString = 148 149 hittedDocument.get(fieldForHighLight); 150 151 System.out.println( " 不高亮: " + defaultString); 152 153 } 154 155 } 156 157 } 158 159 indexReader.close(); 160 161 indexReader = null ; 162 163 } catch (Exception e) { 164 165 e.printStackTrace(); 166 167 } finally 168 169 { 170 171 if (indexReader != null ) { 172 173 try { 174 175 indexReader.close(); 176 177 } catch (IOException e) { 178 179 e.printStackTrace(); 180 181 } 182 183 } 184 185 } 186 187 } 188 189 /** 190 191 * 要使用QueryParser,需要导入包: 192 193 * lucene-4.5.0\queryparser\lucene-queryparser-4.5.0.jar 194 195 * 196 197 * 发现于demon的SearchFiles.java,用的是: 198 199 * org.apache.lucene.queryparser.classic.QueryParser 200 201 * @throws ParseException 202 203 */ 204 205 @Test 206 207 public void queryByQueryString() throws ParseException 208 209 { 210 211 // 查询字符串,这里关键字大写就可以了,因为经过了分词器 212 213 String qString = " fileContent:Reproduce " ; // 用指定的域 214 215 String qStringNoField = " Reproduce " ; // 用Parser默认的域 216 217 queryData(qStringNoField); 218 219 } 220 221 @Test 222 223 public void termQuery() 224 225 { 226 227 // 查询fileContent域的reproduce 228 229 // 注意term里面是没有经过分词器的,因为所有的索引是小写 230 231 // 所以这里需要用小写查询 232 233 Query query = new TermQuery( 234 235 new Term( " fileContent " , " reproduce " )); 236 237 queryData(query); 238 239 } 240 241 /** 242 243 * 短语查询,注意这里有引号 244 245 * 246 247 * fileContent:"advertising features"~5 248 249 * fileContent:"advertising ? ? features" 250 251 */ 252 253 @Test 254 255 public void phraseQuery() 256 257 { 258 259 // 比如查询advertising materials mentioning features 260 261 // 262 263 // 再比如想查询lucene *** *** 教程 264 265 // 那么我们可以查询关键词"lucene"和关键词"教程", 266 267 // 然后他们相距5个词之类就行了 268 269 // 270 271 // 查询语句是Query:fileContent:"advertising features"~5 272 273 PhraseQuery query = new PhraseQuery(); 274 275 query.setSlop( 5 ); // 最多间隔5个字 276 277 query.add( new Term( " fileContent " , " advertising " )); 278 279 query.add( new Term( " fileContent " , " features " )); 280 281 queryData(query); 282 283 // 也可以固定位置的指定,如下面0号位置就是advertising, 284 285 // 第3号位置是features。注意这个位置是相对起来的。中间隔2个. 286 287 // 我们通过打印出出来的语句就可以看出: 288 289 // fileContent:"advertising ? ? features",也就是指定了只隔2个 290 291 // 改成0,4就不行了。这要的是精确的配置关系 292 293 PhraseQuery query2 = new PhraseQuery(); 294 295 query2.add( new Term( " fileContent " , " advertising " ), 0 ); 296 297 query2.add( new Term( " fileContent " , " features " ), 3 ); 298 299 // 就会找到reproduce关键字,也就是相当于把reproduce关键字的找出来 300 301 queryData(query2); 302 303 } 304 305 /** 306 307 * 关键字都是大写,这里的"TO"就是 308 309 * fileSize:[0 TO 3] 两边包含 310 311 * fileSize:{0 TO 3] 不包含左边,包含右边 312 313 */ 314 315 @Test 316 317 public void rangeQuery() 318 319 { 320 321 // 我们文件的大小是2845,如果我们搜索0到100000是搜不到的, 322 323 // 因为做的是字符串的比较,也就是 324 325 // "0","100000","2845"比较,明显2845最大,不在这个区间了, 326 327 // 所以我们查不到 328 329 // 330 331 // 如果改成0,3之间就可以查到 332 333 TermRangeQuery query = TermRangeQuery.newStringRange( 334 335 " fileSize " , " 0 " , " 3 " , true , true ); 336 337 queryData(query); 338 339 TermRangeQuery query2 = TermRangeQuery.newStringRange( 340 341 " fileSize " , " 0 " , " 3 " , false , true ); 342 343 queryData(query2); 344 345 } 346 347 /** 348 349 * 数字范围的查询,没查到,到时再修改!!!!!! 350 351 * 352 353 * fileSize:[0 TO 30000] 354 355 */ 356 357 @Test 358 359 public void rangeQuery2() 360 361 { 362 363 // 因为做的是字符串比较 364 365 // 所以对于数字应该保证字符宽度一样才对,但是数据一变, 366 367 // 我们就又要全体都改,于是有下面的办法,如下分析: 368 369 // 因为java的long就是最长的数据,他的十进制有19位, 370 371 // 所以我们把所有的数字扩展成19为的字符串就可以解决。 372 373 // 当然Lucene已经帮我们提供了。 374 375 // 376 377 // 对于数字的类型,lucene提供了一个工具类帮我们处理: 378 379 // 目前没有找到或者不会用 380 381 // precisionStep是精度,需要 >= 1 382 383 // 但是这个查不到.....???? 384 385 Query query2 = NumericRangeQuery.newLongRange( 386 387 " fileSize " , 0L , 30000L , true , true ); 388 389 queryData(query2); 390 391 } 392 393 /** 394 395 * 通配符查询,模糊匹配的一个关键字, 396 397 * 而:PhraseQuery短语查询是多个关键字的间隔。 398 399 * 400 401 * ? : 代表任意一个字符 402 403 * * : 代表0到n个任意字符 404 405 * 406 407 * fileContent:reprod* 408 409 * fileContent:repro??ce 410 411 * fileContent:repro???ce 412 413 * reproduce*:reprod* 414 415 * 416 417 * java.lang.NoClassDefFoundError: 418 419 * org/apache/lucene/queries/CommonTermsQuery 420 421 * 那么需要导入lucene-4.5.0\queries\lucene-queries-4.5.0.jar 422 423 * 424 425 * java.lang.NoClassDefFoundError: 426 427 * org/apache/lucene/index/memory/MemoryIndex 428 429 * 那么需要导入lucene-4.5.0\memory\lucene-memory-4.5.0.jar 430 431 * 432 433 * 所以对于那些NoClassDefFoundError一定是jar没有导全,导入即可解决。 434 435 * 436 437 * 这里就是查询reprod开头的关键字 438 439 */ 440 441 @Test 442 443 public void wildcardQuery() 444 445 { 446 447 // 这个跟前缀查询一样.. 448 449 WildcardQuery query = new WildcardQuery( 450 451 new Term( " fileContent " , " reprod* " )); 452 453 queryData(query); 454 455 WildcardQuery query2 = new WildcardQuery( 456 457 new Term( " fileContent " , " repro??ce " )); 458 459 queryData(query2); 460 461 // 这个就查不到了 462 463 WildcardQuery query3 = new WildcardQuery( 464 465 new Term( " fileContent " , " repro???ce " )); 466 467 queryData(query3); 468 469 WildcardQuery query4 = new WildcardQuery( 470 471 new Term( " reproduce* " , " reprod* " )); 472 473 queryData(query4); 474 475 } 476 477 /** 478 479 * 多个查询的boolean控制 480 481 * +fileContent:reprod* fileSize:[0 TO 3] 482 483 * -fileContent:"advertising features"~5 484 485 * 486 487 * + : 就是Must 也可以写成AND 488 489 * - : 就是Must_Not 也可以写成NOT 490 491 * 空格 : 就是Should 也可以写成OR 492 493 * 494 495 * MUST : 必须满足条件 496 497 * MUST_NOT : 一定不满足 498 499 * SHOULD : 就是或的意思 500 501 * @throws ParseException 502 503 */ 504 505 @Test 506 507 public void booleanQuery() throws ParseException 508 509 { 510 511 BooleanQuery query = new BooleanQuery(); 512 513 // 一定有reprod* 514 515 WildcardQuery must = new WildcardQuery( 516 517 new Term( " fileContent " , " reprod* " )); 518 519 // 文件大小一定在0,3的字符串之间 520 521 TermRangeQuery must_size = TermRangeQuery.newStringRange( 522 523 " fileSize " , " 0 " , " 3 " , true , true ); 524 525 // 有这个条就查不到了嘛 526 527 PhraseQuery not = new PhraseQuery(); 528 529 not.setSlop( 5 ); // 最多间隔5个字 530 531 not.add( new Term( " fileContent " , " advertising " )); 532 533 not.add( new Term( " fileContent " , " features " )); 534 535 query.add( new BooleanClause(must, Occur.MUST)); 536 537 query.add( new BooleanClause(must_size, Occur.SHOULD)); 538 539 query.add( new BooleanClause(not, Occur.MUST_NOT)); 540 541 queryData(query); 542 543 System.out.println( " 下面是使用AND,NOT,OR执行 " ); 544 545 // 两条件相与 546 547 queryData( " fileContent:reprod* AND fileSize:[0 TO 3] " ); 548 549 System.out.println( 550 551 " ------------------李锋------分界线----------- " ); 552 553 // 两条件相或 554 555 queryData( " fileContent:reprod* OR fileSize:[0 TO 3] " ); 556 557 System.out.println( 558 559 " ------------------李锋------分界线----------- " ); 560 561 // A !B 562 563 queryData( " fileContent:reprod* NOT fileSize:[0 TO 3] " ); 564 565 System.out.println( 566 567 " ------------------李锋------分界线----------- " ); 568 569 // !A B 570 571 queryData( " NOT fileContent:reprod* AND fileSize:[0 TO 3] " ); 572 573 // 下面使用括号来用改变优先级 574 575 System.out.println( " \n使用括号 " ); 576 577 queryData( " fileContent:reprod* AND”+ 578 579 ” (fileSize:[ 0 TO 3 ] OR fileContent:reprod ? ) " ); 580 581 } 582 583 } 584 585

指定排序和相关度权重

排序分两种,一个是修改相关度的权重来影响排序,另一个是使用指定的域来排序。

相关度排序

Lucene 在返回查找结果的时候,会根据相关度进行打分,得分越高的就越在前面,这是默认的处理。相关度的算法很多,比如用n维空间的cos求夹角的方式。

相关度又分两种,一种是域的相关度,另一种是doc的相关度。修改相关度的就是boost变量。

1. 域的相关度

a) 在创建查询语句的时候用Map<String, Float> boosts指定

b) 在创建索引的时候指定,这样就固化到了索引文件,需要重建索引才可以修改,或者查询时重新指定也行。((Field)field).setBoost(1.0f);

下面是第一种的代码,第二种的就是((Field)field).setBoost(1.0f);即可。

  
  
1 /** 2 3 * 设置域的权重,在查询时指定 4 5 * fileContent:abcdefg.txt filePath:abcdefg.txt^3.0 6 7 * 这就是设置权重的查询语句。 8 9 * 10 11 * 也可以在创建索引时,给field设置权重,那么就固化到索引文件了。 12 13 * 14 15 * @throws InvalidTokenOffsetsException 16 17 * @throws IOException 18 19 * @throws ParseException 20 21 */ 22 23 @Test 24 25 public void fieldBoostTest() throws IOException, 26 27 InvalidTokenOffsetsException, ParseException 28 29 { 30 31 String[] fileds = new String[]{ " fileContent " , " filePath " }; 32 33 Map < String, Float > boosts = new HashMap < String, Float > (); 34 35 // 设置filePath的权重高些,3.0f相当大的影响 36 37 boosts.put( " fileContent " , 1.0f ); 38 39 boosts.put( " filePath " , 3.0f ); 40 41 // 相当于(fileContent:****) (filePath:****) 42 43 // 也就是查询fileContent或者filePath 44 45 MultiFieldQueryParser parser = new MultiFieldQueryParser( 46 47 Version.LUCENE_45, fileds, analyzer,boosts); 48 49 query(parser.parse( " abcdefg.txt " )); 50 51 // // 上面的相当于下面的 52 53 // { 54 55 // query("fileContent:abcdefg.txt filePath:abcdefg.txt^3.0"); 56 57 // query("fileContent:abcdefg.txt OR filePath:abcdefg.txt^3.0"); 58 59 // } 60 61 } 62 63

2. Doc的相关度,我们可以指定某个doc的权重比其他的权重高,这样这篇文字的索引位置就比其他的相对靠前了。

实现方法:目前还没找到。

指定域排序Sort

我们可以指定某个域升降序排列,就像order by一样。

  
  
1 // 排序 2 3 Sort sort = new Sort(); 4 5 // 就是大小升序 6 7 // sort.setSort(new SortField("fileSize", Type.LONG,false)); 8 9 // 就是大小降序 10 11 sort.setSort( new SortField( " fileSize " , Type.LONG, true )); 12 13 TopDocs topDocs = searcher.search(query, 1000 ,sort); 14 15 // 这个简单,直接指定传给IndexSeacher即可 16 17 // 有时你想要一个排好序的结果集,就像SQL语句的“order by”,lucene能做到:通过Sort。 18 19 Sort sort = new Sort(“time”); // 相当于SQL的“order by time” 20 21 Sort sort = new Sort(“time”, true ); // 相当于SQL的“order by time desc” 22 23 // 下面是一个完整的例子: 24 25 Directory dir = FSDirectory.getDirectory(PATH, false ); 26 27 IndexSearcher is = new IndexSearcher(dir); 28 29 QueryParser parser = new QueryParser( " content " , new StandardAnalyzer()); 30 31 Query query = parser.parse( " title:lucene content:lucene " ); 32 33 RangeFilter filter = new RangeFilter( " time " , " 20060101 " , " 20060230 " , true , true ); 34 35 Sort sort = new Sort(“time”); 36 37 Hits hits = is.search(query, filter, sort); 38 39 for ( int i = 0 ; i < hits.length(); i ++ ) 40 41 { 42 43 Document doc = hits.doc(i); 44 45 System.out.println(doc.get( " title " ); 46 47 } 48 49 is.close(); 50 51

过滤器Filter

就是过滤一些东西,我们在查询的时候可以指定:

// 使用过滤器

Filter filter = NumericRangeFilter.newLongRange(

"fileSize", 111L, 800L, true, true);

TopDocs topDocs = searcher.search(query, filter,1000);

这个就过滤文件大小,但是测试结果是查不到,需要再想一下。

filter 的作用就是限制只查询索引的某个子集,它的作用有点像SQL语句里的where,但又有区别,它不是正规查询的一部分,只是对数据源进行预处理,然后交给查询语句。注意它执行的是预处理,而不是对查询结果进行过滤,所以使用filter的代价是很大的,它可能会使一次查询耗时提高一百倍。

最常用的filter是RangeFilter和QueryFilter。RangeFilter是设定只搜索指定范围内的索引;QueryFilter是在上次查询的结果中搜索。

Filter的使用非常简单,你只需创建一个filter实例,然后把它传给searcher。继续上面的例子,查询“时间在20060101到20060130之间的文章”除了将限制写在query string中,你还可以写在RangeFilter中:

Directory dir = FSDirectory.getDirectory(PATH, false);

IndexSearcher is = new IndexSearcher(dir);

QueryParser parser = new QueryParser("content", new StandardAnalyzer());

Query query = parser.parse("title:lucene content:lucene";

RangeFilter filter = new RangeFilter("time", "20060101", "20060230", true, true);

Hits hits = is.search(query, filter);

for (int i = 0; i < hits.length(); i++)

{

Document doc = hits.doc(i);

System.out.println(doc.get("title");

}

is.close();

学习途径:

1. 看官方的例子程序,里面有生成索引,查询的方法,还有高级知识!

里面讲了生成doc时不同的域可以用不用的子类域来封装,比如文StringField,LongField,TextField,等等很好!

2. 官方文档,里面查询API,当前链接了源码之后这个文档就没多大意义了

3. 看官方文档指定的wiki:

http://wiki.apache.org/lucene-java/FrontPage?action=show&redirect=FrontPageEN

4. 看Lucene 原理与代码分析完整版.pdf

性能优化

一直到这里,我们还是在讨论怎么样使lucene跑起来,完成指定任务。利用前面说的也确实能完成大部分功能。但是测试表明lucene的性能并不是很好,在大数据量大并发的条件下甚至会有半分钟返回的情况。另外大数据量的数据初始化建立索引也是一个十分耗时的过程。那么如何提高lucene的性能呢?下面从优化创建索引性能和优化搜索性能两方面介绍。

优化创建索引性能

这方面的优化途径比较有限,IndexWriter提供了一些接口可以控制建立索引的操作,另外我们可以先将索引写入RAMDirectory,再批量写入FSDirectory,不管怎样,目的都是尽量少的文件IO,因为创建索引的最大瓶颈在于磁盘IO。另外选择一个较好的分析器也能提高一些性能。

通过设置IndexWriter的参数优化索引建立

setMaxBufferedDocs(int maxBufferedDocs)

控制写入一个新的segment前内存中保存的document的数目,设置较大的数目可以加快建索引速度,默认为10。

setMaxMergeDocs(int maxMergeDocs)

控制一个segment中可以保存的最大document数目,值较小有利于追加索引的速度,默认Integer.MAX_VALUE,无需修改。

setMergeFactor(int mergeFactor)

控制多个segment合并的频率,值较大时建立索引速度较快,默认是10,可以在建立索引时设置为100。

通过RAMDirectory缓写提高性能

我们可以先把索引写入RAMDirectory,达到一定数量时再批量写进FSDirectory,减少磁盘IO次数。

FSDirectory fsDir = FSDirectory.getDirectory("/data/index", true);

RAMDirectory ramDir = new RAMDirectory();

IndexWriter fsWriter = new IndexWriter(fsDir, new StandardAnalyzer(), true);

IndexWriter ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);

while (there are documents to index)

{

... create Document ...

ramWriter.addDocument(doc);

if (condition for flushing memory to disk has been met)

{

fsWriter.addIndexes(new Directory[] { ramDir });

ramWriter.close();

ramWriter = new IndexWriter(ramDir, new StandardAnalyzer(), true);

}

}

选择较好的分析器

这个优化主要是对磁盘空间的优化,可以将索引文件减小将近一半,相同测试数据下由600M减少到380M。但是对时间并没有什么帮助,甚至会需要更长时间,因为较好的分析器需要匹配词库,会消耗更多cpu,测试数据用StandardAnalyzer耗时133分钟;用MMAnalyzer耗时150分钟。

优化搜索性能

虽然建立索引的操作非常耗时,但是那毕竟只在最初创建时才需要,平时只是少量的维护操作,更何况这些可以放到一个后台进程处理,并不影响用户搜索。我们创建索引的目的就是给用户搜索,所以搜索的性能才是我们最关心的。下面就来探讨一下如何提高搜索性能。

将索引放入内存

这是一个最直观的想法,因为内存比磁盘快很多。Lucene提供了RAMDirectory可以在内存中容纳索引:

Directory fsDir = FSDirectory.getDirectory(“/data/index/”, false);

Directory ramDir = new RAMDirectory(fsDir);

Searcher searcher = new IndexSearcher(ramDir);

但是实践证明RAMDirectory和FSDirectory速度差不多,当数据量很小时两者都非常快,当数据量较大时(索引文件400M)RAMDirectory甚至比FSDirectory还要慢一点,这确实让人出乎意料。

而且lucene的搜索非常耗内存,即使将400M的索引文件载入内存,在运行一段时间后都会out of memory,所以个人认为载入内存的作用并不大。

优化时间范围限制

既然载入内存并不能提高效率,一定有其它瓶颈,经过测试发现最大的瓶颈居然是时间范围限制,那么我们可以怎样使时间范围限制的代价最小呢?

当需要搜索指定时间范围内的结果时,可以:

1、用RangeQuery,设置范围,但是RangeQuery的实现实际上是将时间范围内的时间点展开,组成一个个BooleanClause加入到 BooleanQuery中查询,因此时间范围不可能设置太大,经测试,范围超过一个月就会抛 BooleanQuery.TooManyClauses,可以通过设置 BooleanQuery.setMaxClauseCount (int maxClauseCount)扩大,但是扩大也是有限的,并且随着maxClauseCount扩大,占用内存也扩大

2、用 RangeFilter代替RangeQuery,经测试速度不会比RangeQuery慢,但是仍然有性能瓶颈,查询的90%以上时间耗费在 RangeFilter,研究其源码发现RangeFilter实际上是首先遍历所有索引,生成一个BitSet,标记每个document,在时间范围内的标记为true,不在的标记为false,然后将结果传递给Searcher查找,这是十分耗时的。

3、进一步提高性能,这个又有两个思路:

a、缓存Filter结果。既然RangeFilter的执行是在搜索之前,那么它的输入都是一定的,就是IndexReader,而 IndexReader是由Directory决定的,所以可以认为RangeFilter的结果是由范围的上下限决定的,也就是由具体的 RangeFilter对象决定,所以我们只要以RangeFilter对象为键,将filter结果BitSet缓存起来即可。lucene API 已经提供了一个CachingWrapperFilter类封装了Filter及其结果,所以具体实施起来我们可以 cache CachingWrapperFilter对象,需要注意的是,不要被CachingWrapperFilter的名字及其说明误导, CachingWrapperFilter看起来是有缓存功能,但的缓存是针对同一个filter的,也就是在你用同一个filter过滤不同 IndexReader时,它可以帮你缓存不同IndexReader的结果,而我们的需求恰恰相反,我们是用不同filter过滤同一个 IndexReader,所以只能把它作为一个封装类。

b、降低时间精度。研究Filter的工作原理可以看出,它每次工作都是遍历整个索引的,所以时间粒度越大,对比越快,搜索时间越短,在不影响功能的情况下,时间精度越低越好,有时甚至牺牲一点精度也值得,当然最好的情况是根本不作时间限制。

下面针对上面的两个思路演示一下优化结果(都采用800线程随机关键词随即时间范围):

第一组,时间精度为秒:

方式 直接用RangeFilter 使用cache 不用filter

平均每个线程耗时 10s 1s 300ms

第二组,时间精度为天

方式 直接用RangeFilter 使用cache 不用filter

平均每个线程耗时 900ms 360ms 300ms

由以上数据可以得出结论:

1、 尽量降低时间精度,将精度由秒换成天带来的性能提高甚至比使用cache还好,最好不使用filter。

2、 在不能降低时间精度的情况下,使用cache能带了10倍左右的性能提高。

使用更好的分析器

这个跟创建索引优化道理差不多,索引文件小了搜索自然会加快。当然这个提高也是有限的。较好的分析器相对于最差的分析器对性能的提升在20%以下。

一些经验

关键词区分大小写

OR AND TO等关键词是区分大小写的,lucene只认大写的,小写的当做普通单词。

读写互斥性

同一时刻只能有一个对索引的写操作,在写的同时可以进行搜索

文件锁

在写索引的过程中强行退出将在tmp目录留下一个lock文件,使以后的写操作无法进行,可以将其手工删除

时间格式

lucene只支持一种时间格式yyMMddHHmmss,所以你传一个yy-MM-dd HH:mm:ss的时间给lucene它是不会当作时间来处理的

设置boost

有些时候在搜索时某个字段的权重需要大一些,例如你可能认为标题中出现关键词的文章比正文中出现关键词的文章更有价值,你可以把标题的boost设置的更大,那么搜索结果会优先显示标题中出现关键词的文章(没有使用排序的前题下)。使用方法:

Field. setBoost(float boost);默认值是1.0,也就是说要增加权重的需要设置得比1大。

Compass框架

还没学

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值