Kibana中安装启动IK分词器

目录

安装Elasticsearch

安装Kibana

安装IK分词器

测试IK


安装Elasticsearch

这里说明一下,我们需要在安装Kibana之前先安装Elasticsearch,安装Elasticsearch如下:

docker run -d \
    --name es \
    -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
    -e "discovery.type=single-node" \
    -v es-data:/usr/share/elasticsearch/data \
    -v es-plugins:/usr/share/elasticsearch/plugins \
    --privileged \
    --network es-net \
    -p 9200:9200 \
    -p 9300:9300 \
elasticsearch:7.12.1

这里一定要看清楚,特别是数据卷的位置,例如输出命令-V后,后面又重新执行命令的时候,就需要先删除你的数据卷,使用docker volume rm 数据卷名,就可以删除数据卷了,要不然后面安装KI分词器的时候,一定是失败的!!!,启动Elasticsearch失败有我自己总结的解决方法,传送门如下

Elasticsearch启动失败及解决

安装Kibana

安装Kibana,命令如下:

docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601 \
kibana:7.12.1

在安装完成kibana后,我们可以看到启动的页面就是这样的

启动成功,我们开始安装IK分词器,这里就会提及刚刚我们说到的挂载数据卷的问题了,因为数据卷出错,是安装不进去的,这里我们直接就使用GitHub下的资源来进行离线下载,就不适用直接拉取文件的方式来解决。

安装IK分词器

输入命令

docker exec -it es /bin/bash

这里的es就是Elasticsearch容器的名称

这里我们就进入了Elasticsearch的容器中,这里我们可以看到有plugins这个文件,这个文件中就需要我们将IK分词器安装到此,下面就是直接输入命令就可以下载到里面了

./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip

现在当中已经由IK的文件了

 安装完成后,记得exit退出,使用docker restart es,重启Elasticsearch,就可以使用IK分词器了

测试一下

 

测试IK

我们先测试是否能使用,就先Elasticsearch中的/

现在我们测试一下随便来个看看是怎么进行分词的

 这里可以看到,这种分词器是不能够将我们需要的词给分出来的,所以我们使用IK分词器

ik_smart和ik_max_word,结果如下

 

 从图片可知这两种方式都可以进行分词,但是ik_max_word可以更多量化的提供更多的词汇,所以根据不同的场景,选择不同的分词方式!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

全栈Demo

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值