Mr. Cappuccino的第7杯咖啡——基于Docker安装ElasticSearch&Kibana


注:服务器内存大小最好设置在4G以上,否则ES会运行失败

1.下载ES镜像
docker pull elasticsearch:6.7.2

在这里插入图片描述

2.下载Kibana镜像
docker pull kibana:6.7.2

在这里插入图片描述

3.启动ES
docker run -it --name elasticsearch -d -p 9200:9200 -p 9300:9300 -p 5601:5601 elasticsearch:6.7.2

在这里插入图片描述
虽然这里显示ES已经启动成功了,但是当我们过了一会儿再来看的时候,却发现ES已经自己停止运行了

docker ps -a

在这里插入图片描述

4.解决ES自动关闭的问题

出现这样的问题是因为我们分配给ES的内存太小了

  1. 进入etc目录,编辑sysctl.conf文件
vi /etc/sysctl.conf
  1. 添加配置
vm.max_map_count=262144

在这里插入图片描述

  1. 启动配置
sysctl -p

在这里插入图片描述

  1. 重新启动ES
docker ps
docker start 容器ID

在这里插入图片描述
到这里ES就已经启动成功啦

5.启动Kibana
docker run -it -d -e ELASTICSEARCH_URL=http://127.0.0.1:9200 --name kibana --network=container:elasticsearch kibana:6.7.2

在这里插入图片描述

6.关闭防火墙
systemctl disable firewalld

在这里插入图片描述

7.访问Kibana主页面

能够成功访问到kibana主页面,则说明Kibana也已经启动成功了
http://192.168.102.152:5601
在这里插入图片描述

8.ES默认的分词器是standard

http://192.168.102.152:9200/_analyze
在这里插入图片描述
“武汉”本身就是一个词,但是standard分词器会将其拆分成两个词,可见这样的分词器对中文非常不友好,我们需要整合到ik分词器

9.整合IK分词器

注意:IK分词器一定要和ES保持同一个版本

在服务器上创建目录mkdir /usr/share/elasticsearch/plugins 上传准备的好的ik分词器 拷贝到es容器中
在这里插入图片描述
在这里插入图片描述
将ik分词器拷贝到容器中

docker cp /usr/share/elasticsearch/plugins/ik 容器id:/usr/share/elasticsearch/plugins/ik

在这里插入图片描述
进入容器,查看ik分词器已经成功拷贝进来了

docker ps
docker exec -it 容器id bash

在这里插入图片描述
注意:需要重启ES和Kibana

10.测试IK分词器是否能够使用

在这里插入图片描述
到这里安装ES&Kibana,整合IK分词器已经到此结束啦

只有登上山顶,才能看到那边的风光。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值