【ElasticSearch】 二、IK 分词器部署和使用

目录

一、IK 分词器介绍

二、IK 分词器安装和使用

2.1 IK 分词器安装

2.2 IK 分词器测试

2.2.1 ik_smart 最粗粒度拆分

2.2.2 ik_max_word 最细粒度拆分

2.3 自定义分词

2.4 定义敏感词禁用


一、IK 分词器介绍

ElasticSearch 自带有分词器,但在中文方面分词效果并不理想,这时候就需要使用 IK 分词器对中文语句进行更好的分段。

 

二、IK 分词器安装和使用

2.1 IK 分词器安装

IK分词器下载:

https://github.com/medcl/elasticsearch-analysis-ik/releases

找到与 elasticsearch 版本对应的 ik 分词器版本

将下载的压缩包上传到服务器的对应目录下,解压并改名为 ik

# 解压压缩包
unzip elasticsearch-analysis-ik-5.6.8.zip

# 重命名
mv elasticsearch ik

将 ik 目录拷贝到 elasticsearch 容器中的 plugins 目录下

docker cp ./ik tom_elasticsearch:/usr/share/elasticsearch/plugins

 

2.2 IK 分词器测试

2.2.1 ik_smart 最粗粒度拆分

http://192.168.47.142:9200/_analyze?analyzer=ik_smart&pretty=true&text=%E6%88%91%E6%98%AF%E5%A4%A7%E5%85%83%E5%AE%9D

  

 

2.2.2 ik_max_word 最细粒度拆分

http://192.168.47.142:9200/_analyze?analyzer=ik_max_word&pretty=true&text=%E6%88%91%E6%98%AF%E5%A4%A7%E5%85%83%E5%AE%9D

 

2.3 自定义分词

# 进入 elasticsearch 容器
docker exec -it tom_elasticsearch /bin/bash

# 进入配置文件目录
cd /usr/share/elasticsearch/plugins/ik/config

创建自定义文件

# 创建自定义文件
vim myCustom.dic

修改 IK 分词器的配置文件

vim IKAnalyzer.cfg.xml

  

保存文件并重启 elasticsearch 容器

docker restart tom_elasticsearch

测试:

http://192.168.47.142:9200/_analyze?analyzer=ik_smart&pretty=true&text=我是大元宝

2.4 定义敏感词禁用

# 进入 elasticsearch 容器
docker exec -it tom_elasticsearch /bin/bash

# 进入配置文件目录
cd /usr/share/elasticsearch/plugins/ik/config

创建自定义文件

# 创建自定义文件
vim myDisabled.dic

  

修改 IK 分词器的配置文件

vim IKAnalyzer.cfg.xml

  

保存文件并重启 elasticsearch 容器

docker restart tom_elasticsearch

测试:

http://192.168.47.142:9200/_analyze?analyzer=ik_smart&pretty=true&text=宇宙

 

  

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值