ElasticSearch安装中文分词器插件smartcn

elasticsearch安装中文分词器插件smartcn

elasticsearch默认分词器比较坑,中文的话,直接分词成单个汉字。

我们这里来介绍下smartcn插件,这个是官方推荐的,中科院搞的,基本能满足需求;

还有另外一个IK分词器。假如需要自定义词库的话,那就去搞下IK,主页地址:https://github.com/medcl/elasticsearch-analysis-ik

smartcn安装比较方便,

直接用 elasticsearch的bin目录下的plugin命令;

先进入elasticsearch的bin目录

然后执行 sh elasticsearch-plugin install analysis-smartcn

-> Downloading analysis-smartcn from elastic

[=================================================] 100%   

-> Installed analysis-smartcn

下载 自动安装;

(注意,假如集群是3个节点,所有节点都需要安装;不过一般都是先一个节点安装好所有的东西,然后克隆几个节点,这样方便)

安装后 plugins目录会多一个smartcn文件包;

安装后,我们需要重启es;

然后我们来测试下;

POST http://192.168.1.111:9200/_analyze/ 

{"analyzer":"standard","text":"我是中国人"}  

执行标准分词器;

结果:

中文都是单个字了;

很不符合需求;

我们用下 smartcn;

{"analyzer":"smartcn","text":"我是中国人"}

执行结果:

我们发现 中国 编程个单个词汇。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值