一. 所需分词包
- IKAnalyzer:IK Analyzer_extra Ik分词器修改版 注: 原版IkAnalyzer在solr中的schame.xml中配置后无法开启最大粒度分词。
二.IKAnalyzer配置
- solr的配置安装 solr配置
- IKAnalyzer下载后解压,把IKAnalyzer.cfg.xml、stopword.dic拷贝E:\dev\solr_tomcat\collection1\conf下面,把IKAnalyzer2012FF_u1.jar拷贝到E:\dev\apache-tomcat-7.0.59\webapps\solr\WEB-INF\lib下面。
- 修改solr_tomcat\solr\collection1\conf下的schema.xml文件,添加代码:
<!-- IKAnalyzer分词器 --> <fieldType name="text_ik" class="solr.TextField"> <analyzer type="index"> <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="true"/> </analyzer> <analyzer type="query"> <tokenizer class="org.apache.lucene.analysis.ik.IKTokenizerFactory" useSmart="false"/> </analyzer> </fieldType>
- 启动solr,在Analysis下找到自配置的text_ik,输入“中华人民共和国”,Ik分词结果如图: