分布式Solrcloud 下 Ik分词的部署

单机Solr Ik分词的部署和群集还是稍有不同的。这里我默认读者知道单机版的Ik部署方法了

修改 zookeeper 的配置文件

修改任意一个 zookeeper 节点 的 配置文件,在 </schema> 节点前添加

 <fieldType name="text_ik" class="solr.TextField">
        <analyzer type="index" useSmart="false" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"></analyzer>
        <analyzer type="query" useSmart="true"  isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"></analyzer>
    </fieldType>

这里写图片描述

修改所有 tomcat 节点 的配置文件

下载 IK中文分词 ,文件目录如下:
这里写图片描述

将红色的三个文件 复制到所有 tomcat 节点 的 classess 目录下,将蓝色的三个文件 复制到所有 tomcat 节点 的 lib 目录下:
这里写图片描述

记得这里所有 tomcat 节点需要重启 !

测试一下集群环境下的Ik分词是否生效

先使用Zookeeper 加 solr-cloud 部署Solr群集二 中上传 zookeeper 配置的方法,再上传一个名称为 myconfIK 的配置文件在 Solr 集群管理界面新建一个 Collection 使用这个配置文件 。
这里写图片描述

默认不分词的分析结果是这样的:
这里写图片描述

我们试着在 solrhome01solrhome02 上 用不同的 stopword 来看看效果
这里写图片描述

这里写图片描述

可见每个 tomcat 节点上的 ext.dic 文件是都需要修改来能实现 IK分词 效果,这里可以把所有节点中 IKAnalyzer.cfg.xml 文件中的 <entry key="ext_dict">ext.dic;</entry> 指向一个 共享路径,这样就可以更新一次分词词典来实现群集的词典更新。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值