Lucene的中文分词器

什么是中文分词器 

  学过英文的都知道,英文是以单词为单位的,单词与单词之间以空格或者逗号句号隔开

 

  而中文的语义比较特殊,很难像英文那样,一个汉字一个汉字来划分。

 

  所以需要一个能自动识别中文语义的分词器。

2. Lucene自带的中文分词器 

  StandardAnalyzer  

    单字分词:就是按照中文一个字一个字地进行分词。如:“我爱中国”
    效果:爱”

 

  CJKAnalyzer  

    二分法分词:按两个字进行切分。如:中国人,效果:是”中国“国人”

 

    上边两个分词器无法满足对中文的需求。

3. 使用中文分词器IKAnalyzer

  IKAnalyzer继承LuceneAnalyzer抽象类,使用IKAnalyzerLucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。

 

  如果使用中文分词器ik-analyzer,就在索引和搜索程序中使用一致的分词器ik-analyzer。

  

1. 使用luke测试IK中文分词 

  (1)打开Luke,不要指定Lucene目录。否则看不到效果

 

  (2)在分词器栏,手动输入IkAnalyzer的全路径org.wltea.analyzer.lucene.IKAnalyzer

 

  

2. 改造代码,使用IkAnalyzer做分词器 

  添加jar

  

 

  修改分词器代码

// 创建中文分词器

Analyzer analyzer = new IKAnalyzer();

  扩展中文词库

    拓展词库的作用:在分词的过程中,保留定义的这些词

    ①src或其他source目录下建立自己的拓展词库,mydict.dic文件,里面写入自定义的词

    ②src或其他source目录下建立自己的停用词库ext_stopword.dic文件停用词的作用:在分词的过程中,分词器会忽略这些词。

    ③src或其他source目录下建立IKAnalyzer.cfg.xml,内容如下(注意路径对应):

<?xml version="1.0" encoding="UTF-8"?>

<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">  

<properties>  

    <comment>IK Analyzer 扩展配置</comment>

    <!-- 用户可以在这里配置自己的扩展字典 -->

     <entry key="ext_dict">mydict.dic</entry> 

     <!-- 用户可以在这里配置自己的扩展停用词字典    -->

    <entry key="ext_stopwords">ext_stopword.dic</entry>

</properties>

 

  如果想配置扩展词和停用词,就创建扩展词的文件和停用词的文件,文件的编码要是utf-8

  注意不要用记事本保存扩展词文件和停用词文件那样的话格式中是含有bom

 

 

 

 

 

 

 

 

转载于:https://www.cnblogs.com/yangweiyong/p/10752968.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Lucene 5.5是一个开源的Java搜索引擎库,用于文本分析、索引和搜索。在Lucene中,分词(Tokenizer)是用于将输入文本按照特定规则切分成单词(token)的工具。 Lucene 5.5提供了多种分词,常用的有标准分词(StandardTokenizer)、简单分词(SimpleAnalyzer)、关键字分词(KeywordAnalyzer)等。这些分词在应用场景和切分规则上有所不同,用户可以根据需求选择合适的分词。 标准分词Lucene中最常用的分词之一,它通过去除空格、标点符号等特殊字符,将输入文本切分成一系列单词。这个过程叫做词法分析(tokenizing)。标准分词还提供了一些附加的文本处理功能,例如将单词转换为小写(lowercasing)、去除停用词(stopwords)等。 简单分词是一个基本的分词,它将输入文本用空格切分成单词,并将单词转换为小写。这个分词在某些简单的搜索场景中会有一定的使用价值。 关键字分词则是将整个输入文本当作一个单词进行处理,适用于某些特殊的搜索需求。例如,当用户输入一个关键字作为搜索条件时,关键字分词可以直接将整个关键字当作一个单词进行匹配。 除了以上提到的分词Lucene还提供了其他各种特定场景下的分词,例如CJK分词适用于中日韩文本的分词,Whitespace分词将输入文本按照空格进行切分等等。 总结来说,Lucene 5.5提供了多种分词供用户选择,根据不同的文本分析需求和搜索场景,选择合适的分词可以提高搜索的效果和准确性。 ### 回答2: Lucene 5.5 是一款开源的全文搜索引擎库,其中的分词是其核心组件之一。分词用于将输入的文本进行切分,生成词条列表,以便进行索引和搜索。 Lucene 5.5 提供了多种分词,常用的有标准分词(StandardAnalyzer)和中文智能分词(SmartChineseAnalyzer)。 标准分词是最常用的分词之一,它基于语法规则对文本进行切分,以空格、标点符号等作为分隔符。它能够处理英文等非中文文本,但对于中文文本效果不佳,因为中文没有明确的分隔符。 中文智能分词是专门针对中文文本设计的分词,它不仅考虑了语法规则,还结合了汉字之间的概率关联关系对文本进行切分。通过对大量的中文语料进行训练,智能分词可以较好地解决中文分词中的歧义性问题,提升分词的准确性和效果。 除了以上两种分词Lucene 5.5 还提供了其他一些适用于特定场景的分词,如关键字分词(KeywordAnalyzer)和简单分词(SimpleAnalyzer)。用户也可以根据自己的需求自定义分词,通过实现接口来自定义词汇的切分规则。 总之,Lucene 5.5 分词是一系列能够对文本进行切分的工具,包括了多种分词算法和规则,以满足不同场景下的需求。通过合理选择和应用分词,可以提高全文搜索引擎的准确性和效率,为用户提供更好的搜索体验。 ### 回答3: Lucene 5.5 是一个开源的全文搜索引擎库,其中包含了许多功能强大的分词。 在Lucene 5.5中,分词是用于将文本分成单个的词语或词元的组件。这对于搜索引擎的索引构建和查询处理非常重要。在Lucene中,我们可以使用不同类型的分词来满足不同的需求。 Lucene 5.5提供了许多内置的分词。其中最常用的是StandardAnalyzer,它是基于标准英语规则的分词,它可以将文本分成单词,并过滤掉一些常见的停用词。此外,还有KeywordAnalyzer,它将文本视为一个整体,不对其进行分词。另外还有SimpleAnalyzer,它将文本按照非字母字符进行分割,并将其小写化。还有WhitespaceAnalyzer,它将文本按照空格进行分割。 除了这些内置的分词Lucene 5.5还支持自定义的分词。开发人员可以根据自己的需求实现自己的分词。自定义分词需要实现TokenStream接口,该接口定义了文本分词后的词元流。 通过使用Lucene 5.5的分词,我们可以将待搜索的文本分成单个的词语或词元,从而提高搜索的准确性和效率。分词是搜索引擎中一个非常关键的组件,它的质量和性能直接影响着整个搜索过程的效果。因此,了解和选择适合的分词是非常重要的。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值