IKAnalyzer 分词可以自定义词汇,jar包是2012版的。
问题:
1.在使用中发现词汇的第一行,也就是第一个词无法分词,是IKAnalyzer的bug。没有修改这个bug,第一行给个空行就行了。
2.发现新增词汇后,必须重新启动服务才可以。
以下是解决问题的方式,没有深研究问题解决了就行:
通过反编译源码发现,在 org.wltea.analyzer.dic 包下Dictionary 字典类中有个地方只加载一次。
只要singleton 给值为null就可以了。
源码:
http://download.csdn.net/detail/wangzhiqiang123456/9427001
public static Dictionary initial(Configuration cfg)
{
/* 83 */ if (singleton == null) {
/* 84 */ synchronized (Dictionary.class) {
/* 85 */ if (singleton == null) {
/* 86 */ singleton = new Dictionary(cfg);
/* 87 */ return singleton;
/* */ }
/* */ }
/* */ }
解决方式:在Dictionary 增加一个方法
public static void singletonrefresh()
{
singleton=null;
}
测试代码:
import java.io.IOException;
import java.io.StringReader;
import org.apache.lucene.analysis.Analyzer;
import org.apache.lucene.analysis.TokenStream;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.analysis.tokenattributes.OffsetAttribute;
import org.wltea.analyzer.dic.Dictionary;
import org.wltea.analyzer.lucene.IKAnalyzer;
public class TestAnalyzer {
public static void testIkAnalyzer(String testString) throws IOException{
Dictionary.singletonrefresh();
Analyzer ikanalyzer = new IKAnalyzer(true);
StringReader reader=new StringReader(testString);
TokenStream ts=ikanalyzer.tokenStream("", reader);
System.out.println("=====IKAnalyzer analyzer====");
System.out.println("分词");
CharTermAttribute term=ts.getAttribute(CharTermAttribute.class);
OffsetAttribute offAttr = ts.getAttribute(OffsetAttribute.class);
ts.reset();
while(ts.incrementToken()){
System.out.println(term+" ("+offAttr.startOffset()+","+offAttr.endOffset()+")");
}
}
public static void main(String[] args) throws Exception{
String testString = "海贼王景品巴里a股猫贴";
System.out.println(testString);
testIkAnalyzer(testString);
}
}