java 站内搜索lucene 分词工具 IKAnalyzer,更新字典需要重启服务的解决

8 篇文章 0 订阅
6 篇文章 0 订阅

IKAnalyzer 分词可以自定义词汇,jar包是2012版的。

问题:

1.在使用中发现词汇的第一行,也就是第一个词无法分词,是IKAnalyzer的bug。没有修改这个bug,第一行给个空行就行了。

2.发现新增词汇后,必须重新启动服务才可以。

以下是解决问题的方式,没有深研究问题解决了就行:

通过反编译源码发现,在 org.wltea.analyzer.dic 包下Dictionary 字典类中有个地方只加载一次。

只要singleton 给值为null就可以了。

源码:

http://download.csdn.net/detail/wangzhiqiang123456/9427001


 public static Dictionary initial(Configuration cfg)
   {
/*  83 */     if (singleton == null) {
/*  84 */       synchronized (Dictionary.class) {
/*  85 */         if (singleton == null) {
/*  86 */           singleton = new Dictionary(cfg);
/*  87 */           return singleton;
/*     */         }
/*     */       }
/*     */     }


解决方式:在Dictionary 增加一个方法

public static void singletonrefresh()
{
singleton=null;
}



测试代码:

import java.io.IOException;
import java.io.StringReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.analysis.tokenattributes.OffsetAttribute;
import org.wltea.analyzer.dic.Dictionary;
import org.wltea.analyzer.lucene.IKAnalyzer;




public class TestAnalyzer {


 public static void testIkAnalyzer(String testString) throws IOException{
 Dictionary.singletonrefresh();
 Analyzer ikanalyzer = new IKAnalyzer(true);
StringReader reader=new StringReader(testString);
TokenStream ts=ikanalyzer.tokenStream("", reader);
    System.out.println("=====IKAnalyzer analyzer====");
    System.out.println("分词");
CharTermAttribute term=ts.getAttribute(CharTermAttribute.class);
OffsetAttribute offAttr = ts.getAttribute(OffsetAttribute.class);
ts.reset();
while(ts.incrementToken()){
System.out.println(term+" ("+offAttr.startOffset()+","+offAttr.endOffset()+")");
}
 }
 





 public static void main(String[] args) throws Exception{
     String testString = "海贼王景品巴里a股猫贴";


     System.out.println(testString);
     testIkAnalyzer(testString);


 }


}


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Lucene中使用中文分词器ik-analyzers可以自定义字典。下面是一个简单的例子: 1. 首先,下载ik-analyzers的jar包,将其添加到项目的classpath中。 2. 创建一个自定义词典文件,例如mydict.txt,将需要添加的词语逐行写入该文件。 3. 在代码中使用以下代码片段来加载自定义词典: ```java // 创建IK分词器 Analyzer analyzer = new IKAnalyzer(true); // 获取IK分词器的配置对象 IKAnalyzerConfig config = ((IKAnalyzer) analyzer).getConfig(); // 加载自定义词典 config.setUseSmart(true); config.setMainDictionary("mydict.dic"); config.setQuantifierDicionary("mydict.qdic"); ``` 其中,IKAnalyzerConfig是IK分词器的配置对象,通过该对象可以设置分词器的一些参数。setMainDictionary和setQuantifierDicionary方法分别用于设置主词典和量词词典的文件名。 4. 使用分词器进行分词: ```java // 创建分词器 Analyzer analyzer = new IKAnalyzer(true); // 对字符串进行分词 String text = "我爱北京天安门"; TokenStream tokenStream = analyzer.tokenStream("", new StringReader(text)); // 遍历分词结果 CharTermAttribute charTermAttribute = tokenStream.addAttribute(CharTermAttribute.class); tokenStream.reset(); while (tokenStream.incrementToken()) { System.out.println(charTermAttribute.toString()); } tokenStream.end(); tokenStream.close(); ``` 在以上代码中,我们创建了一个IK分词器并对一个字符串进行了分词,遍历分词结果并输出。 注意:在使用自定义词典时,需要保证自定义词典的文件名与代码中设置的文件名一致,并且自定义词典文件必须放在分词器的类路径下。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值