Lucene--TokenStream(TokenFilter、Tokenizer)

TokenStream即是从Document的域(field)中或者查询条件中抽取一个个分词而组成的一个数据流。继承TokenStream的类必须是final类型的,或者至少increamStoken的方法是final的,TokenStream是抽象类,两个子类如下:

TokenFilter:输入参数为另一个TokerStream的TokerStream,这是一个抽象类,其子类必须覆盖TokenStream.incrementToken()函数

Tokenizer:输入为Reader的TokenStream,这是抽象类,其子类必须实现incrementToken()函数。注意:子类覆盖TokenStream.incrementToken()时, 在设置attributes 必须调用AttributeSource中的clearAttributes()方法。


TokenStream的工作流程:

1、实例化Tokenizer或TokenFilter,,添加属性到AttributeSource,或从AttributeSource中获取属性。

2、调用reset()方法

3、从流中和存储本地引用检索想要访问所有属性

4、调用increamStoken()方法,直到返回false

5、调用end()方法执行任何end-of-stream操作

6、调用close()方法在结束使用TokerStream释放一些资源


end()、reset()、close()的覆盖通常要调用super.end()、super.reset()、super.close()


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Java Lucene-Core 是 Apache Lucene 项目的核心依赖库。Lucene 是一个开源的全文检索引擎工具包,提供了强大的全文检索功能,可用于构建各种基于文本的应用程序。 在使用 Lucene 时,需要添加 Lucene-Core 依赖到项目中,以便能够使用 Lucene 提供的各种功能。Lucene-Core 是 Lucene 项目最基本的依赖库,包含了一些必备的类和方法,用于索引和搜索文档。 通过 Lucene-Core,可以使用 Lucene 提供的各种 API 来创建索引、搜索和加权查询。Lucene 使用倒排索引的方式来快速定位包含搜索词的文档,而不需要遍历整个文档集合。这种索引结构使得 Lucene 具有出色的搜索效率和性能。 Lucene-Core 还提供了各种分析器(Analyzer)和查询解析器(Query Parser),用于处理文本的分词、词干处理和查询解析等操作。分析器可用于将文本分割成词语,并根据需要进行一些文本处理操作。查询解析器则用于将用户的查询语句解析成 Lucene 可以理解的查询对象。 除了 Lucene-Core,还存在其他的 Lucene 依赖库,如 Lucene-Analyzers、Lucene-Queries 等,它们提供了更高级的功能和扩展,用于处理多语言分词、模糊查询、范围查询等等。 总之,Java Lucene-Core 依赖是使用 Lucene 的必备库,它提供了构建全文检索应用程序所需的基本功能和工具。通过使用 Lucene-Core,开发人员可以更方便地利用 Lucene 的强大功能来实现高效的全文检索。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值