Php lucene 分词 2016,lucene分词器中的Analyzer,TokenStream, Tokenizer, TokenFilter

分词器的核心类:

Analyzer:

分词器

TokenStream:

分词器做好处理之后得到的一个流。这个流中存储了分词的各种信息,可以通过TokenStream有效的获取到分词单元。

以下是把文件流转换成分词流(TokenStream)的过程

首先,通过Tokenizer来进行分词,不同分词器有着不同的Tokenzier,Tokenzier分完词后,通过TokenFilter对已经分好词的数据进行过滤,比如停止词。过滤完之后,把所有的数据组合成一个TokenStream;以下这图就是把一个reader转换成TokenStream:

7427c61b25d5d9f88669e4c4adf221f2.png

这个TokenStream中存有一些属性,这些属性会来标识这个分词流的元素。

在这个流里 有很多属性。下面截了lucene4.10.1源码中的图:

bc27b85008647f56de0a9143bf9e044e.png

其中有3个重要的属性,CharTermAttribute(保存相印的词汇),OffsetAttribute(保存各个词汇的偏移量),PositionIncrementAttribute(保存各个词与词之间的位置增量,如果为0,可以做同义词搜索)。是由这3个属性来控制这些分词信息

Tokenzier主要负责接收Reader,将Reader进行分词操作,有如下一些实现类

f5420e97c12f374d95ebe6f3a882c809.png

TokenFilter将分词的出来的单元,进行各种各样的过滤。

代码如下:

package hhc;

import java.io.IOException;

import java.io.StringReader;

import org.apache.lucene.analysis.Analyzer;

import org.apache.lucene.analysis.TokenStream;

import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;

import org.apache.lucene.analysis.tokenattributes.OffsetAttribute;

import org.apache.lucene.analysis.tokenattributes.PositionIncrementAttribute;

import org.apache.lucene.analysis.tokenattributes.TypeAttribute;

public class AnalyzerUtil {

/**

* 输出字符分词信息

*

* @param str

* @param a

*/

public static void displayAllToken(String str, Analyzer a) {

try {

// 所有的分词器都必须含有分词流

TokenStream stream = a.tokenStream("content", new StringReader(str));// 放回一个TokenStream;

/**

* 创建一个属性,这个属性会添加到流里,随着这个TokenStream流增加

* 这个属性中保存中所有的分词信息

*/

CharTermAttribute cta=stream.addAttribute(CharTermAttribute.class);

//位置增量的属性,存储词之间的距离

PositionIncrementAttribute pia = stream.addAttribute(PositionIncrementAttribute.class);

//储存每个词直接的偏移量

OffsetAttribute oa = stream.addAttribute(OffsetAttribute.class);

//使用的每个分词器直接的类型信息

TypeAttribute ta = stream.addAttribute(TypeAttribute.class);

for (; stream.incrementToken();) {

System.out.print(pia.getPositionIncrement()+":");

System.out.print(cta+":["+oa.startOffset()+"-"+oa.endOffset()+"]-->"+ta.type()+"

");

}

System.out.println();

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

}

}

}

测试:

@Test

public void hhcTest(){

Analyzer a1 =new StandardAnalyzer(Version.LUCENE_35);

Analyzer a2 =new StopAnalyzer(Version.LUCENE_35);

Analyzer a3 =new SimpleAnalyzer(Version.LUCENE_35);

Analyzer a4 =new WhitespaceAnalyzer(Version.LUCENE_35);

String txt ="how are you think you";

AnalyzerUtil.displayAllToken(txt, a1);

AnalyzerUtil.displayAllToken(txt, a2);

AnalyzerUtil.displayAllToken(txt, a3);

AnalyzerUtil.displayAllToken(txt, a4);

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值