docker上安装ik分词器

前言:

es本身也自带分词器,但是大多仅对英文比较友好,对于中文一般来说都是一个字一个词,不能实现我们想要的多字词分词,例如”北京天安门“,分词之后是“北”,“京”,“天”,“安”,“门“,所以我们需要手动安装”ik分词器,这款分词器相对于来说对中文分词是比较有好的“,下面进入步骤

一、安装elasticsearch

如未安装,可点击按步骤安装

二、进入github找到ik分词器的下载链接

搜索: elasticsearch-analysis-ik,然后点击tags

 一直找到所需要的版本,我用的是7.4.2

 点击进去之后找到zip包后,鼠标右键复制链接地址

 二、进入docker中elasticsearch的plugins 

docker exec -it c_elasticsearch  /bin/bash
cd plugins 
mkdir ik
cd ik

三、下载ik分词器zip包

wget 复制的ik分词器链接地址

wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.4.2/elasticsearch-analysis-ik-7.4.2.zip

四、解压ik分词器

unzip elasticsearch-analysis-ik-7.4.2.zip

五、解压完成后重新启动es即可

docker restart 容器名

在这里插入图片描述

六、测试分词效果

http://ip地址:9200/_analyze

{

    "analyzer":"ik_max_word",

    "text":"我爱喜之郎"

}

 

 

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值