IKAnalyzer下载地址:https://ik-analyzer.googlecode.com/files/IK%20Analyzer%202012FF_hf1.zip
这里我使用的是IK Analyzer 2012FF_hf1.zip这个包;因为我用的是solr4.x的;
解压、文件拷贝
下载之后用unzip解压,没有安装unzip童鞋安装下;
解压之后讲IKAnalyzer的jar包拷贝到$SOLR_HOME的lib目录下;将IKAnalyzer.conf.xml和stopword.dic放到classes目录下,我这里的classes目录是
- /data/projects/apprank-solr.zqgame.com/WEB-INF/classes
* IKAnalyzer.conf.xml主要的作用是用于自定义分词字典以及停止词字典的指定;
* stopword.dic是默认自带的停止词,你可以添加自己的停止词到这个文件中;
配置
这里我们只讲IKAnalyzer的分词器配置。其实分词器的配置大同小异,IKAnalyzer具体配置如下;
- <fieldType name="text" class="solr.TextField">
- <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
- </fieldType>
- 或者是
- <fieldType name="text_ik" class="solr.TextField">
- <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
- <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
- </fieldType>
配置完fieldType之后,我们将要使用到分词器的field的type属性修改为我们新添加fieldType;
- <field name="name" type="text_ik" indexed="true"/>
自定义分词字典
接下来讲下自定义分词字典,前面我们在重点文件说明中以及提到了IKAnalyzer.cfg.xml的作用;先来看下这个文件的内容
- hadoop@nutch4:/data/projects/clusters/IKAnalyzer$ more IKAnalyzer.cfg.xml
- <?xml version="1.0" encoding="UTF-8"?>
- <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
- <properties>
- <comment>IK Analyzer 扩展配置</comment>
- <!--用户可以在这里配置自己的扩展字典
- <entry key="ext_dict">ext.dic;</entry>
- -->
- <!--用户可以在这里配置自己的扩展停止词字典-->
- <entry key="ext_stopwords">stopword.dic;</entry>
- </properties>
我们在IKAnalyzer.cfg.xml的同级目录下添加一个ext.dic的文件,文件内添加自己的分词字典,重启就可以了!
看下我们的自定义分词字典ext.dic
- 天天跑酷
- 天天爱消除
- 天天
大家可以看到效果还不错。呵呵!