lucene自定义分词器

首先我们应该都了解,lucene 组件是文档搜索的基本组件,今天我们先来了解一下luence组件分词器的一些知识,然后我们自定义一个简单的分词器。
首先我们明白几个主要的类:

Analyzer:为我们获取分词器,在此类中我们要复写它的抽象方法,以获得我们特殊的分词器,通过腹泻createComponent方法获取分词器对象
TokenStream : 分词器对象,方法incrementToken 方法判断是否还有分此项
TokenFilter : 分词过滤器
Tokenizer:分词处理器
Attribute:分词属性对象

在我们分词过程中,这几个类很重要,明白其中原理那么我们自定义分词器就轻而易举的实现。查看源码可以很清晰知道其原理,在这里不在附属,下面自定义一个空格分词并转小写的分词器:
package com.cai.analizer;

import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenFilter;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.Tokenizer;
import org.apache.lucene.util.Attribute;
import org.apache.lucene.util.AttributeImpl;
import org.apache.lucene.util.AttributeReflector;

import java.io.IOException;

public class CaiAnalyzer extends Analyzer {
    @Override
    protected TokenStreamComponents createComponents(String fieldName) {
        Tokenizer source =new MyWhiteSpaceTokenizer();
        TokenStream filter = new MyWhileSpaceTokenFiler(source);
        return new TokenStreamComponents(source,filter);
    }
    //创建分词器:一个单词一个单词去读,有空格进行分词处理
    static class MyWhiteSpaceTokenizer extends  Tokenizer{
        MyCharAttribute mychar = this.addAttribute(MyCharAttribute.class);
        //声明存储容器
        char[] buffer = new char[255];
        //声明获取元素
        int c ;
        //声明容器长度
        int length = 0;
        @Override
        public boolean incrementToken() throws IOException{
            clearAttributes();//清楚所有熟悉ing
            length = 0;
            //循环获取字符
            while (true){
                 c = this.input.read();
                 if(c == -1) {//读取完毕
                       if(length > 0){//判断是否为最后一个字符,如果不是则循环加入
                           this.mychar.setChars(buffer,length);
                           return true;
                       }else{
                           return false;
                       }
                 }
                 if(Character.isWhitespace(c)){//判断是否为空白字符
                     if(length > 0){//说明不是第一个
                          this.mychar.setChars(buffer,length);
                          return true;
                     }
                 }
                 buffer[length++] = (char)c;
            }

        }
    }
    //创建分词过滤器

    /**
     *
     */
    static class MyWhileSpaceTokenFiler extends TokenFilter {

        public MyWhileSpaceTokenFiler(TokenStream source){
            super(source);
        }
        MyCharAttribute myCharAttribute = this.addAttribute((MyCharAttribute.class));
        @Override
        public boolean incrementToken() throws IOException{
            boolean res = this.input.incrementToken();
            if(res){//说明有分词
                char[] chars = myCharAttribute.getChars();
                int length = myCharAttribute.getLength();
                if(length > 0){
                    for(int i=0;i<length;i++){
                        chars[i]= Character.toLowerCase(chars[i]);
                    }
                }
            }
            return res;
        }
    }
    //定义属性对象
    public interface MyCharAttribute extends Attribute{
        void setChars(char[] buffer, int length);//设置字符

        char[] getChars();//获取字符串

        int getLength();//获取长度

        String getString();//获取字符
    }
    public static class MyCharAttributeImpl extends AttributeImpl implements  MyCharAttribute{
        //设置长度
        private char[] charTerm = new char[255];
        private int length =0;
        public MyCharAttributeImpl(){}
        @Override
        public void clear() {

        }

        @Override
        public void reflectWith(AttributeReflector reflector) {

        }

        @Override
        public void copyTo(AttributeImpl target) {

        }

        @Override
        public void setChars(char[] buffer, int length) {
             this.length=length;
             if(length > 0){
                 System.arraycopy(buffer,0,this.charTerm,0,buffer.length);//将字符拷贝到属性中
             }
        }

        @Override
        public char[] getChars() {
            return this.charTerm;
        }

        @Override
        public int getLength() {
            return this.length;
        }

        @Override
        public String getString() {
            if(this.length > 0){
                return new String(this.charTerm,0,length);
            }
            return null;
        }
    }
    //测试分词器
    public static void main(String[] args){
        String text = "I Love You , Baby ! How are you ";
        Analyzer analyzer = new CaiAnalyzer();
        try {
            TokenStream tokenStream= analyzer.tokenStream("aa",text);
            MyCharAttribute myCharAttribute = tokenStream.addAttribute(CaiAnalyzer.MyCharAttribute.class);
           tokenStream.reset();
            while (tokenStream.incrementToken()){
               System.out.print(myCharAttribute.getString()+"|");
           }
           tokenStream.end();
        }catch (IOException e){
            e.printStackTrace();
        }


    }
}


 


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Lucene 5.5是一个开源的Java搜索引擎库,用于文本分析、索引和搜索。在Lucene中,分词器(Tokenizer)是用于将输入文本按照特定规则切分成单词(token)的工具。 Lucene 5.5提供了多种分词器,常用的有标准分词器(StandardTokenizer)、简单分词器(SimpleAnalyzer)、关键字分词器(KeywordAnalyzer)等。这些分词器在应用场景和切分规则上有所不同,用户可以根据需求选择合适的分词器。 标准分词器Lucene中最常用的分词器之一,它通过去除空格、标点符号等特殊字符,将输入文本切分成一系列单词。这个过程叫做词法分析(tokenizing)。标准分词器还提供了一些附加的文本处理功能,例如将单词转换为小写(lowercasing)、去除停用词(stopwords)等。 简单分词器是一个基本的分词器,它将输入文本用空格切分成单词,并将单词转换为小写。这个分词器在某些简单的搜索场景中会有一定的使用价值。 关键字分词器则是将整个输入文本当作一个单词进行处理,适用于某些特殊的搜索需求。例如,当用户输入一个关键字作为搜索条件时,关键字分词器可以直接将整个关键字当作一个单词进行匹配。 除了以上提到的分词器Lucene还提供了其他各种特定场景下的分词器,例如CJK分词器适用于中日韩文本的分词,Whitespace分词器将输入文本按照空格进行切分等等。 总结来说,Lucene 5.5提供了多种分词器供用户选择,根据不同的文本分析需求和搜索场景,选择合适的分词器可以提高搜索的效果和准确性。 ### 回答2: Lucene 5.5 是一款开源的全文搜索引擎库,其中的分词器是其核心组件之一。分词器用于将输入的文本进行切分,生成词条列表,以便进行索引和搜索。 Lucene 5.5 提供了多种分词器,常用的有标准分词器(StandardAnalyzer)和中文智能分词器(SmartChineseAnalyzer)。 标准分词器是最常用的分词器之一,它基于语法规则对文本进行切分,以空格、标点符号等作为分隔符。它能够处理英文等非中文文本,但对于中文文本效果不佳,因为中文没有明确的分隔符。 中文智能分词器是专门针对中文文本设计的分词器,它不仅考虑了语法规则,还结合了汉字之间的概率关联关系对文本进行切分。通过对大量的中文语料进行训练,智能分词器可以较好地解决中文分词中的歧义性问题,提升分词的准确性和效果。 除了以上两种分词器Lucene 5.5 还提供了其他一些适用于特定场景的分词器,如关键字分词器(KeywordAnalyzer)和简单分词器(SimpleAnalyzer)。用户也可以根据自己的需求自定义分词器,通过实现接口来自定义词汇的切分规则。 总之,Lucene 5.5 分词器是一系列能够对文本进行切分的工具,包括了多种分词算法和规则,以满足不同场景下的需求。通过合理选择和应用分词器,可以提高全文搜索引擎的准确性和效率,为用户提供更好的搜索体验。 ### 回答3: Lucene 5.5 是一个开源的全文搜索引擎库,其中包含了许多功能强大的分词器。 在Lucene 5.5中,分词器是用于将文本分成单个的词语或词元的组件。这对于搜索引擎的索引构建和查询处理非常重要。在Lucene中,我们可以使用不同类型的分词器来满足不同的需求。 Lucene 5.5提供了许多内置的分词器。其中最常用的是StandardAnalyzer,它是基于标准英语规则的分词器,它可以将文本分成单词,并过滤掉一些常见的停用词。此外,还有KeywordAnalyzer,它将文本视为一个整体,不对其进行分词。另外还有SimpleAnalyzer,它将文本按照非字母字符进行分割,并将其小写化。还有WhitespaceAnalyzer,它将文本按照空格进行分割。 除了这些内置的分词器Lucene 5.5还支持自定义分词器。开发人员可以根据自己的需求实现自己的分词器自定义分词器需要实现TokenStream接口,该接口定义了文本分词后的词元流。 通过使用Lucene 5.5的分词器,我们可以将待搜索的文本分成单个的词语或词元,从而提高搜索的准确性和效率。分词器是搜索引擎中一个非常关键的组件,它的质量和性能直接影响着整个搜索过程的效果。因此,了解和选择适合的分词器是非常重要的。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值