lucene3.0.3中的FieldCache

      FieldCache是lucene中的一个隐藏的很深的东西,在api中不可见,我也是在看排序的源码中才看到这个类的,今天我又看了个CustomScoreQuery,它里面也是用了FieldCache,所以我觉得这个类还是比较重要的,有必有把这个类记录一下。(补充:我现在看的版本是3.0.3,在lucene4.x及以后的版本中对于sort、facet已经使用docValue了,不在使用FieldCache,我记录这篇博客的原因是因为我有强迫症哭

      FieldCache的目的是把词典表(tis)中的每一个term和doc关联起来,并且加载到内存中,比如我们索引了人的document,人有个属性叫做age,即年龄,我们现在在搜索的时候按照age进行排序。FieldCache会将所有的term取出来,假设只存在20,30这两个年龄,并且20岁的有张三(id为0)、李四(id为2),30岁的有王五(id为1),那么最终返回的是一个数组——[20,30,20]。(看过lucene源码的同学可能这里会咯噔一下,因为lucene在存数字的时候不是单纯的存20,30,他会进行splitRange,会存放更多的数字,比如20,22,25,28,30,如果你有这个疑问说明你对lucene了解的不错了,不过在使用FiledCache的时候,比如sort、facet、CustomScoreQuery时,是不允许分词的,如果分词的话,我们就无法获得某个doc的准确的值了所以这里的age一定不要使用NumericField,使用一个简单的Field就可以)

      FieldCache使用了一个全局的值——FieldCacheImpl类的一个实例,在FieldCache中,public static FieldCache DEFAULT = new FieldCacheImpl();所有的缓存都是存在这个实例中。在这个类中有个map的属性caches,他的key是根据最终要获得的类型区分的,在init方法中可以发现,key是Byte.class Integer.class,对应的value是ByteCache,IntCache等等。下面的分析我们以ByteCache为例(其实都是一样的,因为在索引中存放的都是字符串,byte、int、long只是采用的转换器不同而已),在ByteCache中存放的也是一个map,他的key是某个文件,在org.apache.lucene.search.FieldCacheImpl.Cache.get(IndexReader, Entry)的get方法中我们可以发现他的key是reader.getFieldCacheKey();在segmentReader中是freqStream这个文件,我理解这个getFieldCacheKey是什么不要紧,是什么都可以,他是用来做一致性区别的——用来表示当前的reader有没有被cache,因为最终缓存的是词典表,即只要被缓存了,一定是缓存的他的词典表。他的value又是一个map,这个map的key是Entry,他包含了两个属性,一个是域的名字,一个是parser,他的意思是在将词典表中的某个域下的所有的term取出来,用指定的parser进行解析(具体到ByteCache最终是调用了Byte.parser方法)。

      看到这里还是没有和doc相关连啊,是时候上代码了,用代码说话。下面的代码是org.apache.lucene.search.FieldCacheImpl.Cache.get(IndexReader, Entry)的代码

 public Object get(IndexReader reader, Entry key) throws IOException {
      Map<Entry,Object> innerCache;
      Object value;
      final Object readerKey = reader.getFieldCacheKey();//用来做一致性区分的对象,没有实际意思
      synchronized (readerCache) {//防止多线程并发的设置,所以加锁
        innerCache = readerCache.get(readerKey);//readerKey仅仅是作为一个key,没有任何实际用,innerCache也是一个map
        if (innerCache == null) {//如果当前的reader还没有缓存
          innerCache = new HashMap<Entry,Object>();
          readerCache.put(readerKey, innerCache);
          value = null;
        } else {
          value = innerCache.get(key);//如果已经缓存了,根据Entry来返回,Entry指定了词典表中的域和parser(转换器)
        }
        if (value == null) {//如果根据Entry并没有(可能的原因是域不同,或者是Parser不同,或者是当前的reader根本就没有缓存。
          value = new CreationPlaceholder();//将缓存用CreationPlaceholder封装
          innerCache.put(key, value);
        }
      }
      if (value instanceof CreationPlaceholder) {
        synchronized (value) {
          CreationPlaceholder progress = (CreationPlaceholder) value;
          if (progress.value == null) {//如果没有值,也就是没有缓存
            progress.value = createValue(reader, key);//添加缓存,在下一段代码中
            synchronized (readerCache) {
              innerCache.put(key, progress.value);
            }

            // Only check if key.custom (the parser) is
            // non-null; else, we check twice for a single
            // call to FieldCache.getXXX
            if (key.custom != null && wrapper != null) {
              final PrintStream infoStream = wrapper.getInfoStream();
              if (infoStream != null) {
                printNewInsanity(infoStream, progress.value);
              }
            }
          }
          return progress.value;
        }
      }
      return value;
    }

 

 

   下面是ByteCache的添加缓存的代码:

 @Override
    protected Object createValue(IndexReader reader, Entry entryKey)
        throws IOException {
      Entry entry = entryKey;
      String field = entry.field;//域
      ByteParser parser = (ByteParser) entry.custom;
      if (parser == null) {
        return wrapper.getBytes(reader, field, FieldCache.DEFAULT_BYTE_PARSER);
      }
      final byte[] retArray = new byte[reader.maxDoc()];
      TermDocs termDocs = reader.termDocs();//获得当前reader的倒排表
      TermEnum termEnum = reader.terms (new Term (field));//当前reader的词典表,定位到指定的域的开头
      try {
        //循环当前域的所有的所有的term,
        do {
          Term term = termEnum.term();
          if (term==null || term.field() != field) break;
          byte termval = parser.parseByte(term.text());//将term的文本值,用parser解析为byte,默认是使用Byte.parse方法
          termDocs.seek (termEnum);//获得当前term的倒排表,
          //循环当前的term下的所有的doc
          while (termDocs.next()) {//当前的term的所有的doc所在的位置的值都是termval,也就是解析的值。
            retArray[termDocs.doc()] = termval;
          }
        } while (termEnum.next());
      } catch (StopFillCacheException stop) {
      } finally {
        termDocs.close();
        termEnum.close();
      }
      return retArray;
    }

(可能对上面的代码有点疑问:如果某个doc在当前的域没有任何的term呢?答案很简单,默认就是0,因为无论是int、short、byte还是float默认都是0,所以如果没有term,则默认为0)

 

在上面的do while代码中,我们可以计算一下他的时间复杂度,term和doc是一对多的关系,即一个term对应多个doc,但是一个doc只能对应一个term(上面说好的,不能分词),所以他的时间复杂度就是doc的个数,即仅仅是做个缓存就要O(n)的复杂度,如果再做facet那么复杂度就更高了,所以docValue的出现就非常必要了,他不用做fieldCache,直接根据docId就可以获得对应的要facet或者是sort的值。

      FieldCache的代码就这么简单,在sort、facet、CustomScoreQuery中都用到了这个类,虽然在lucene4之后已经采用了更高效的DocValues,不过看看还是很值得的,起码我们知道他的来龙去脉。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值