使用Lucene.Net实现全文检索



目录

一 Lucene.Net概述

二 分词

三 索引

四 搜索

五 实践中的问题

 

一 Lucene.Net概述

  Lucene.Net是一个C#开发的开源全文索引库,其源码包括“核心”与“外围”两部分。外围部分实现辅助功能,而核心部分包括:

  • Lucene.Net.Index 提供索引管理,词组排序。
  • Lucene.Net.Search 提供查询相关功能。
  • Lucene.Net.Store 支持数据存储管理,主要包括I/O操作。
  • Lucene.Net.Util 公共类。
  • Lucene.Net.Documents 负责描述索引存储时的文件结构管理。
  • Lucene.Net.QueryParsers 提供查询语法。
  • Lucene.Net.Analysis 负责分析文本。

  全文检索流程如下:

  一个简单的全文检索实例:

  创建索引

  关键代码形如:

  static void createIndex(string title, string content)
        {

            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter("Index", analyzer, false);
            LN.Documents.Document document = new LN.Documents.Document();
            document.Add(new LN.Documents.Field("title", title, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            document.Add(new LN.Documents.Field("content", content, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.TOKENIZED));
            iw.AddDocument(document); iw.Optimize(); iw.Close();
        }

  查询:

   关键代码形如:

 static List<Item> search(string keyWord)
        {
            List<Item> results = new List<Item>();
            LN.Analysis.Analyzer analyzer = new LN.Analysis.Standard.StandardAnalyzer();
            LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher("Index");
            LN.QueryParsers.MultiFieldQueryParser parser = new LN.QueryParsers.MultiFieldQueryParser(new string[] { "title", "content" }, analyzer);
            LN.Search.Query query = parser.Parse(keyWord);
            LN.Search.Hits hits = searcher.Search(query);
            for (int i = 0; i < hits.Length(); i++)
            {
                LN.Documents.Document doc = hits.Doc(i);
                results.Add(new Item() { Title = doc.Get("title"), Content = doc.Get("content") });
            } searcher.Close();
            return results;
        }

二 分词

(一)内置分词器

  分词(切词)是实现全文检索的基础,之所以我们能够让机器理解我们的自然语言,是因为有了分词的帮助。分词工作由Analyzer类完成,它负责把文本切成Token序列,Token就是索引中的单词。Lucene.Net在两个地方用到分词:创建文档索引和分析搜索关键字。其过程示意如下:

  由此可知,在创建索引和搜索时,必须使用同样的分词器,保证其切出相同的Token才能检索到结果。(Lucene.Net把查询关键字中的单词叫做“Term”,Term和Token的文本是一样的,只是某些属性不一样。)

  Lucene.Net实现了一些分词器,其对英文支持较好,但是对中文支持欠佳。

  针对内置分词器测试结果如下:

  关键代码形如:

      

   private static List<string> cutWords(string words, Analyzer analyzer)
        {
            List<string> results = new List<string>();
            TokenStream ts = analyzer.ReusableTokenStream("", new StringReader(words));
            Token token; while ((token = ts.Next()) != null)
            {
                results.Add(token.TermText());
            }
            ts.Close();
            return results;
        }

  可见,除了StandardAnalyzer外,其它分词器对中文基本无法处理,需要用户自行解决。

(二)分词过程

  分词实际是由以下类型完成:

  查看WhitespaceAnalyzer的部分源码如下:

  
  public sealed class WhitespaceAnalyzer:Analyzer {
            public override TokenStream TokenStream(System.String fieldName, System.IO.TextReader reader) { 
                return new WhitespaceTokenizer(reader); 
            }   
            
            ...
        }

  由此可见,WhitespaceAnalyzer的工作都是交给WhitespaceTokenizer来完成的,并且没有使用筛选器,这也与之前测试的结果相符。我们可以利用TokenStream的派生类型来实现自定义分词器。 例如修改上述代码来得到一个新的分词器,功能类似WhitespaceAnalyzer,不同的是将大写字母变为小写,其代码形如:

        public sealed class NewWhitespaceAnalyzer:Analyzer { 
            public override TokenStream TokenStream(System.String fieldName, System.IO.TextReader reader) { 
                TokenStream ts = new WhitespaceTokenizer(reader); 
                return new LowerCaseFilter(ts);
            }    
            ... 
        }

(三)中文分词

  显然,用户可以自定义分词器,来实现中文分词。但是,大多数用户不熟悉中文分词算法,同时也没有时间和精力来实现自定义分词,毕竟分词并不是我们系统的核心功能。因此,笔者引用了另一个中文分词组件——盘古分词。测试结果如下:

  盘古分词使用步骤如下:

Setp 1:添加相关程序集引用

  这里需要添加2个程序集,PanGu.dll(盘古分词的核心组件)和PanGu.Lucene.Analyzer.dll(盘古分词的Lucene组件)。

Step 2:添加中文分词库

Step 3:添加并设置配置文件

Step 4:在Lucene.Net使用盘古分词

  PanGu.Lucene.Analyzer.dll中定义了Analyzer的派生类型Lucene.Net.Analysis.PanGu.PanGuAnalyzer,与Tokenizer的派生类Lucene.Net.Analysis.PanGu.PanGuTokenizer,语法与Lucene.Net内置分词器相同。

Step 5:维护分词库

  使用DictManage.exe管理和维护词库:

三 索引

(一)索引的存储结构

  为了方便索引大量文档,Lucene.Net中的一个索引包括多个子索引,叫做Segment(段)。每个Segment包括多个可搜索的文档,叫做Document;每个Document包括多个Field;每个Field又包括多个Term。综上所述,Lucene.Net的索引文件的逻辑结构如下:

  索引文件的物理表示如下:

  Lucene.Net把一个文档写入索引时,首先生成这个文档的到排索引,然后再把文档的倒排索引合并到段的倒排索引中。

(二)常用类型

  • Directory Lucene.Net的Directory类型实现索引的存储。常用类型继承树如下:

  • IndexWriter 负责将索引写入Directory。Lucene通过设置缓存来提供写索引的速度,IndexWriter有几个参数来调整缓存的大小,控制Segment的数量,以及写索引的频率:
    1. 合并因子(mergeFactor) 这个参数决定一个索引块中可以存放多少文档(Document)以及把磁盘上的索引段(Segment)合并成一个大索引段的频率。该参数默认值为10。在默认情况下,缓存中Document数达到10时,所有的文档将写入一个新的Segment。并且,如果Directory的Segment的个数达到10,这10个索引块会被合并成一个新的Segment。对于大量文档来说,这个值大一些会更好。可以通过“SetMergeFactor(int mergeFactor)”方法来设置、
    2. 最小合并文档数(minMergeDocs)、最大缓存文档数(maxBufferedDocs) 默认值为10,它决定缓存中Document数量达到多少才能将他们写入磁盘。该值越大越消耗内存,I/O操作越少。(本处,笔者也有些糊涂,笔者感觉两者类似,不知道具体区别,若理解有误还请读者赐教。)
    3. 最大合并文档数(maxMergeDocs) 默认值为Integer.MAX_VALUE,它决定一个索引段(Segment)中的最大文档(Document)数。该值越大越高效,因为默认值以及很大了所以不用改变。
    4. 最大域长度(maxFieldLength) 默认值10000,表示截取该域中的前10000个Term,前10000个以外的Term将不被索引和检索。该值可在索引中随时更改,并即时生效(仅对之后的操作生效,一般该值设置为Integer.MAX_VALUE)。

    IndexWriter的常用方法包括:

    1. Flush/Commit Flush方法与Commit方法相同,都是把缓存中的数据提交,可以清除缓存。
    2. Close 无论是否发生异常都必须调用Close方法,该方法将对文件进行解锁,并完成Flush方法的功能。
    3. Optimize Optimize方法用于优化索引,执行相当耗时。
  • Document 包含了可索引文档的信息。每个Document都有一个编号,但该编号并非永远不变。
  • Field 类似实体的某个属性,就像数据库中的一个列,其成员如下:

  (可以看到,Index的某些字段我给出的相同的注释,这是因为向下兼容的目的而具有相同的作用。注:高亮显示将用的TermVector。)

  常用列选项组合及用法如下:

IndexStoreTermVector用法
NOT_ANSLYZEDYESNO文件名、主键
ANSLYZEDYESWITH_POSITUION_OFFSETS标题、摘要
ANSLYZEDNOWITH_POSITUION_OFFSETS很长的全文
NOYESNO文档类型
NOT_ANSLYZEDNONO隐藏的关键词

(三)创建索引

  创建索引流程如下:

1 基本实现

  其代码形如:

      

   private static void saveIndex(string dirPath, string uri, string title, string summary) {
       //判断是创建索引还是追加索引 
       bool isNew = false; 
       if (!LN.Index.IndexReader.IndexExists(dirPath)) { 
           isNew = true;
       } 
       LN.Index.IndexWriter iw = new LN.Index.IndexWriter(dirPath, new PanGuAnalyzer(), isNew);
       //使用PanGuAnalyzer初始化IndexWriter,参数create为true表示创建,为false表示添加。 
       LN.Documents.Document document = new LN.Documents.Document();
       //创建Document 
       //添加
       Field document.Add(new LN.Documents.Field("Uri", uri, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.NO)); 
       document.Add(new LN.Documents.Field("Title", title, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.ANALYZED)); 
       document.Add(new LN.Documents.Field("CreateTime", DateTime.Now.ToString("yyyy-MM-dd"), LN.Documents.Field.Store.YES, LN.Documents.Field.Index.NOT_ANALYZED));
       document.Add(new LN.Documents.Field("Summary", summary, LN.Documents.Field.Store.YES, LN.Documents.Field.Index.ANALYZED));
       iw.AddDocument(document);
       //向索引添加文档 iw.Optimize();//优化索引 iw.Close();//关闭索引
   }


2 权重Boost

  默认情况下,搜索结果以Document.Score作为排序依据,该数值越大排名越靠前。Score与Boost成正比,满分是1,如果某的Document的Score为1,其它文档将根据该文档进行评分,因此不会同时存在多个同时为1的情况。从公式也可看出,Boost不能为0,Boost=0则Score为0。在类型Lucene.Net.Search.Hits这定义了Score(int)方法,能够获取评分。

  Boost的默认值为1,通过改变权重我们可以影响查询结果。其代码形如:

  “document.SetBoost(2F);”改变Document的权重,将影响所有Field的搜索得分。

  “document.GetField("FieldName").SetBoost(2F);”只改变某个Field的权重。

  boost的数值存储在Norms中,因此要注意Index的设置,设置NO_NORMS将节省索引空间,但是将不支持权重。

  权重的调整建议:

  • 标题权重一般比内容高 标题更能够非常准确地描述文档的内容,而且长度比较短,提高权重不会造成严重的影响。
  • 不要把包含大量索引的文档的权重设置过高 文档中能索引的词越多,对搜索的影响越大,例如在搜索如“好的”这样常用的词汇时,这篇文章也将位列榜首,但并不是我们需要的。
  • 如果能靠设置Field的权重来解决,就不要设置Document的权重 原因与上面的类似,当我们要改变某些关键字的搜索结果时,要尽量减少对其它关键字搜索的影响。
  • 考虑降低权重 对于某些没有意义的文档,考虑降低权重来为相对提升其它文档的搜索排位。

(四)合并索引

  其代码形如:

        

       private static void mergeIndex(string sourcePath, string targetPath) {
            LN.Store.Directory sourceDir = LN.Store.FSDirectory.GetDirectory(sourcePath, false); 
            LN.Store.Directory targetDir = LN.Store.FSDirectory.GetDirectory(targetPath, false);
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter(targetPath, new PanGuAnalyzer(), false); 
            iw.AddIndexes(new LN.Store.Directory[] { sourceDir }); 
            iw.Optimize(); 
            iw.Close();
        }

   合并索引功能常用于将内存中的Directory合并到硬盘的Directory中。(通常我们使用这种方法来优化索引创建过程。)

(五)删除索引

   IndexReader,IndexModifer,IndexWriter都提供了DeleteDocuements、DeleteDocument、DeleteAll方法常来删除索引。因为Document的编号会改变,使用一般不会持久化到数据库中,所以多数情况下会按指定的Term来删除索引。其代码形如:

   

        private static void delIndex(string dirPath, string key) { 
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter(dirPath, new PanGuAnalyzer(), false);
            iw.DeleteDocuments(new LN.Index.Term("Key", key));
        iw.Optimize();//删除文件后并非从磁盘中移除,而是生成一个.del的文件,需要调用Optimize方法来清除。在清除文件前可以使用UndeleteAll方法恢复(笔者未尝试) 
            iw.Close();
        }

  (需要注意的是,如果Field使用的是Index.NO,则表示不建立索引,当然也无法进行删除。)

(六)更新索引

  更新索引时只允许更新整个Docuemnt,无法单独更新Docuemnt中的Field。其代码形如:

        private static void updateIndex(string path, string key, LN.Documents.Document doc) {
            LN.Index.IndexWriter iw = new LN.Index.IndexWriter(path, new PanGuAnalyzer(), false); 
            iw.UpdateDocument(new LN.Index.Term("Key", key), doc);
            iw.Optimize();
            iw.Close(); 
        }

(七)优化索引

  通过IndexWriter的Optimize方法优化索引,以加快搜索的速度,该方法提供多个重载,其执行相当耗时,应谨慎使用。优化产生的垃圾文件,在执行Flush/Commit/Close方法后才会被物理删除。Optimize方法及其重载包括:

  • Optimize() 合并段,完成后返回。
  • Optimize(bool doWait) 与Optimize()相同,但立即返回。
  • Optimize(int maxNumSegments) 针对最多maxNumSegments个段进行优化,而并非全部索引。
  • Optimize(int maxNumSegments, bool doWait) 与Optimize(int maxNumSegments)相同,但立即返回。

  (优化索引实际就是在压缩索引文件,需要大约2倍索引大小的临时空间,且特别耗时。一种好的做法是把内存中的索引合并到应硬盘中。)

四 搜索

(一)基本查询


private static List<Item> search(string dirPath, string keywords) { List<Item> results = new List<Item>(); LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher(dirPath);//初始化IndexSearcher LN.QueryParsers.MultiFieldQueryParser parser = new LN.QueryParsers.MultiFieldQueryParser(new string[] { "Title", "Summary" }, new PanGuAnalyzer());//初始化MultiFieldQueryParser以便同时查询多列 LN.Search.Query query = parser.Parse(keywords);//初始化Query LN.Search.Hits hits = searcher.Search(query);//搜索 //遍历结果集 for (int i = 0; i < hits.Length(); i++) { LN.Documents.Document doc = hits.Doc(i); results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") }); } searcher.Close(); return results; }

  以上代码显示了一个基本搜索的例子。搜索的基本过程包括:查询请求解析->搜索->获取匹配的结果集->提取所需数据。搜索主要做两件事情:首先,确定那些文档出现在结果集中;然后,为结果集中的文档打分,分高的排在前面。

  Lucene.Net采用向量空间搜索模型,在向量空间中越接近的文档越相似。向量空间搜索模型比较复杂(详细内容可以参考维基百科),其大致影响因素包括:

  • 与关键字在文档中出现的频率成正比
  • 与权重成正比
  • 与反转文档频率成正比 该值主要受文档总数和包含关键字的文档数量影响,与文档总数成正比,与包含关键字的文档总数成反比,即索引库中文档越多,包含此关键字的文档越少,反转文档频率越高。
  • 与保有率成正比  保有率主要受到关键字在Fleld中出现的次数(词频)和Field的长度(Field包含的词数)影响,与词频成正比,与Field的长度成反比,即从越短的Field中搜索出越多的关键字,我们就认为保有率高。

(二)常用类型

  • IndexReader与IndexSearcher IndexReader能够读取索引,IndexSearcher是IndexReader的包装类型,负责搜索。
  • Query及其常用派生类 这组类型用于实现各类查询,常用类型的继承树如下:

  • QueryPaser及其常用派生类 该组类型用于分析用户的输入,并将其转换为Query实例,常用类型的继承树如下:

  • Sort与SortField Sort类型是负责对搜索结果进行排序,可以针对指定的一个或多个域进行排序。SortField用于指定列类型,常用的列类型如下:

  • Filter 这组类型实现对搜索的过滤。常用类型的继承树如下:

  • TermFregVector TermFregVector包含了指定文档的项和词频信息,当在索引期间存储项向量的时候,才能通过IndexReader检索出TermFregVector。
  • Hits Hits用于承载搜索的结果集。

(三)逻辑查询

  查询同时包含多个Term的代码形如:

private static List<Item> andTermSearch(string dirPath, string[] keywords) { List<Item> results = new List<Item>(); LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher(dirPath);//初始化IndexSearcher LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery(); foreach (var item in keywords) { LN.Index.Term term = new Lucene.Net.Index.Term("Title", item); LN.Search.TermQuery tq = new Lucene.Net.Search.TermQuery(term); bq.Add(tq, LN.Search.BooleanClause.Occur.MUST); } LN.Search.Hits hits = searcher.Search(bq);//搜索 // 遍历 结果集 for (int i = 0; i < hits.Length(); i++) { LN.Documents.Document doc = hits.Doc(i); results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") }); } searcher.Close(); return results; }

   上述代码的核心是“bq.Add(tq, LN.Search.BooleanClause.Occur.MUST);”,Occur的取值及含义如下:

  通过改变该值,实现“与”、“或”、“非”操作。“非”操作常常与全匹配查询联合使用,以达到查询不满足某个条件的结果。其代码形如:

LN.Search.MatchAllDocsQuery madq = new Lucene.Net.Search.MatchAllDocsQuery();//匹配所有文档...bq.Add(tq, LN.Search.BooleanClause.Occur.MUST_NOT);bq.Add(madq, LN.Search.BooleanClause.Occur.MUST);...

  BooleanQuery的成员SetMinimumNumberShouldMatch(int min),可以设置需要匹配上的条件的最小数量。

(四)复合查询

  有2种方式实现复合查询,第一种方式是使用MultiFieldQueryParser,该方式已经在之前的代码中给出,还可以使用BooleanQuery,其代码形如:

private static List<Item> search(string dirPath, string keywords) { List<Item> results = new List<Item>(); LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher(dirPath);//初始化IndexSearcher LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery(); LN.Search.Query qTitle = new Lucene.Net.Search.TermQuery(new Lucene.Net.Index.Term("Title", keywords)); LN.Search.Query qSummary = new Lucene.Net.Search.TermQuery(new Lucene.Net.Index.Term("Summary", keywords)); bq.Add(qTitle, LN.Search.BooleanClause.Occur.SHOULD); bq.Add(qSummary, LN.Search.BooleanClause.Occur.SHOULD); LN.Search.Hits hits = searcher.Search(bq);//搜索 // 遍历 结果集 for (int i = 0; i < hits.Length(); i++) { LN.Documents.Document doc = hits.Doc(i); results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") }); } searcher.Close(); return results; }

  也可以使用如下形式:

private static List<Item> search(string dirPath, string keywords) { List<Item> results = new List<Item>(); PanGuAnalyzer analyzer = new PanGuAnalyzer(); LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher(dirPath);//初始化IndexSearcher LN.Search.BooleanQuery bq = new Lucene.Net.Search.BooleanQuery(); LN.QueryParsers.QueryParser qpTitle = new Lucene.Net.QueryParsers.QueryParser("Title", analyzer); LN.QueryParsers.QueryParser qpSummary = new Lucene.Net.QueryParsers.QueryParser("Summary", analyzer); LN.Search.Query qTitle = qpTitle.Parse(keywords); LN.Search.Query qSummary = qpSummary.Parse(keywords); bq.Add(qTitle, LN.Search.BooleanClause.Occur.SHOULD); bq.Add(qSummary, LN.Search.BooleanClause.Occur.SHOULD); LN.Search.Hits hits = searcher.Search(bq);//搜索 // 遍历 结果集 for (int i = 0; i < hits.Length(); i++) { LN.Documents.Document doc = hits.Doc(i); results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") }); } searcher.Close(); return results; }

(五)跨度查询

  对以下内容分词“I come from Beijing.”应用WhitespaceAnalyzer的结果为:“I/come/from/Beijing.”,其跨度如下:

  跨度查询的代码形如:

private static List<Item> search(string dirPath, string keyword1,string keyword2) { List<Item> results = new List<Item>(); Analyzer analyzer = new WhitespaceAnalyzer(); LN.Search.IndexSearcher searcher = new LN.Search.IndexSearcher(dirPath);//初始化IndexSearcher LN.Search.Spans.SpanNearQuery snp = new Lucene.Net.Search.Spans.SpanNearQuery(new Lucene.Net.Search.Spans.SpanQuery[]{ new LN.Search.Spans.SpanTermQuery(new Lucene.Net.Index.Term("Summary", keyword1)),//第一个 关键字  new LN.Search.Spans.SpanTermQuery(new Lucene.Net.Index.Term("Summary", keyword2))},//第二个关键字 1,//1个跨度以内 true);//有序 LN.Search.Hits hits = searcher.Search(snp);//搜索 // 遍历 结果集 for (int i = 0; i < hits.Length(); i++)          { LN.Documents.Document doc = hits.Doc(i); results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") }); } searcher.Close(); return results; }

  更具上述代码,如果传入“I”,“Beijing.”,则无法查询到,因为我在上例中将最大跨度设置为1,而实际跨度为2。可见,利用跨度查询,可以帮助筛选部分查询结果,时候查询那些关系紧密的关键字

  从之前的类图可以看到,跨度查询还有几个常用派生类型,其功能如下:

  • SpanFirstQuery 限定只查询前面几个词。
  • SpanRegexQuery 支持正则表达式。
  • SpanNotQuery 包含必须满足的SpanQuery和必须排除的SpanQuery,例如查找包含“First”,但不包含“The”在前面的内容。
  • SpanOrQuery 并操作。

(六)通配符查找

  WildcardQuery支持通配符搜索,其中“*”表示多个字符,“?”表示1个字符。其代码形如:WildcardQuery query = new WildcardQuery(new Lucene.Net.Index.Term("Summary", keyword));//keyword="?o*"。

(七)排序

  Lucene.Net主要有两种方式来控制排序结果,包括使用Sort对象定制排序和影响相关度计算结果。

1 按单列排序

  代码形如:

Sort sort = new Sort();SortField sf = new SortField("CreateTime", SortField.STRING, true);//true表示逆序sort.SetSort(sf);Search.Hits hits = searcher.Search(query, sort);//搜索

2 按多列排序

  代码形如:

Sort sort = new Sort();SortField sf1 = new SortField("CreateTime", SortField.STRING, true);SortField sf2 = new SortField("Title", SortField.SCORE, true);sort.SetSort(new SortField[] { sf1, sf2 });Search.Hits hits = searcher.Search(query, sort);//搜索

3 自定义排序

  自定义排序功能,需要定义FieldComparatorSource的派生类型,还需要定义自己的比较器,要求其继承FieldComparator。然后重写FieldComparatorSource的NewComparator方法,并在其中返回自己定义的比较器实例。具体实例,可以参照Lucene.Net源码中的实现。

4 使用查询函数排序

  查询函数索引中的字符通过某个方法转变为数值,并作为评分来影响查询结果。

FieldScoreQuery fsq = new FieldScoreQuery("Uri", FieldScoreQuery.Type.INT);//将Uri列解释为IntCustomScoreQuery csq = new CustomScoreQuery(query, fsq);//合并最初的查询分值与当前分值TopDocs td = searcher.Search(csq, 10);//搜索// 遍历 结果集for (int i = 0; i < td.totalHits; i++){  LN.Documents.Document doc = searcher.Doc(td.scoreDocs[i].doc);  results.Add(new Item() { Title = doc.Get("Title"), Summary = doc.Get("Summary"), CreateTime = doc.Get("CreateTime"), Uri = doc.Get("Uri") });}

  可以定义自己的评分方法,具体用法可以参考FieldScoreQuery的源码。 

5 设置权重

  权重已在上文给出,不在赘述。

(八)过滤

  使用Filter及其派生类完成对结果集的过滤,也可以定义自己的过滤器。使用过滤的代码形如:

RangeFilter filter = new RangeFilter("CreateTime", "19990101", "29991010", true, true);Search.Hits hits = searcher.Search(query, filter,sort);//搜索

  何时可以使用过滤:

  • 根据不同的安全权限显示搜索结果,即查询某个范围内的数据时可以借助过滤器。
  • 希望缓存结果时,可以使用支持缓存的过滤器。

五 实践中的问题

  本节之前的实例代码,仅针对Lucene.Net的使用进行了梳理,之前实例中的代码并不标准,在实际使用时还需要注意很多问题。本节将对这些问题进行探讨,以帮助读者开发高性能程序。

(一)缓存

  Lucene.Net支持对查询(FieldCache)和排序结果(CachingWrapperFilter)进行缓存。每个IndexSearcher或者IndexReader都有自己的缓存,缓存的生命周期与IndexSearcher或者IndexReader的实例相同。CachingWrapperFilter针对每个Filter有一个缓存,除此之外还有其他支持缓存的筛选器。为了使缓存利用率最高,推荐使用单例模式来维护一个IndexSearcher实例。

(二)锁

  Lucene.Net借助锁来应对并发问题。其索引访问原则如下:

  • 在同一时刻,可以执行多个读操作(检索)。
  • 在同一时刻,只能执行一个写操作(创建、优化、修改、删除)。
  • 在执行写操作的同时可以同时执行多个读操作。

  可见,在执行写操作时,索引文件会被加锁,以防止其他线程在同一时刻修改索引。加锁实际上是在索引目录下,产生一个锁文件,Lucene.Net一共有两种锁文件——commit.lock、write.lock。查询网上的一些资料发现两者的主要区别:

commit.lock主要与segment合并和读取的操作相关。例如,其出现在IndexWriter的初始化时,当segment的信息被读取完毕,它就会被释放。另外,当调用IndexWriter的AddIndexs()或MergeSegment()方法时,也会生成这个锁。

writer.lock出现在向索引添加文档时,或是将文档从索引中删除时。writer.lock会在IndexWriter被初始化时创建,然后会在调用IndexWriter的Close()方法时被释放。另外,会在IndexReader使用Delete方法删除文档时创建,并在调用IndexReader的Close()方法时被释放。

  为了能够在出现异常时,得体得处理,最好报Close()放到finally快中。

  注意,使用IndexModifier可以简化开发,IndexModifier对象封装了IndexWriter和IndexReader的常用操作,其内部实现了多线程同步锁定。使用 IndexModifier可避免同时使用 IndexWriter和IndexReader时需要在多个对象之间进行同步的麻烦。

(三)使用内存目录以及多线程查询器提高查询速度

  对内存操作要比硬盘快的多,因此可以利用RAMDirectory来提高查询速度。设计思路为:在RAMDirectory中创建索引,查询时同时查询RAMDirectory与FSDirectory中的索引,并在合适的时候将RAMDirectory中的索引写入FSDirectory。

  查询时使用ParallelMultiSearcher加快搜索速度。ParallelMultiSearcher为多线程版本的搜索器,查询内存与硬盘上的索引。

(四)总是设置权重

  一般情况下,最好不要使用默认权重,原因很简单,标题中的关键字或者论文关键字栏目中的关键字,具有更高的价值,为了提高命中率,我们应该在创建索引时就有意地提高这些类型的权重。

 

主要参考文献:

  《盘古分词使用手册》

  《使用C#开发搜索引擎》



©️2020 CSDN 皮肤主题: 游动-白 设计师:上身试试 返回首页