基于Docker安装ElasticSearch&Kibana
注:服务器内存大小最好设置在4G以上,否则ES会运行失败
1.下载ES镜像
docker pull elasticsearch:6.7.2
2.下载Kibana镜像
docker pull kibana:6.7.2
3.启动ES
docker run -it --name elasticsearch -d -p 9200:9200 -p 9300:9300 -p 5601:5601 elasticsearch:6.7.2
虽然这里显示ES已经启动成功了,但是当我们过了一会儿再来看的时候,却发现ES已经自己停止运行了
docker ps -a
4.解决ES自动关闭的问题
出现这样的问题是因为我们分配给ES的内存太小了
- 进入etc目录,编辑sysctl.conf文件
vi /etc/sysctl.conf
- 添加配置
vm.max_map_count=262144
- 启动配置
sysctl -p
- 重新启动ES
docker ps
docker start 容器ID
到这里ES就已经启动成功啦
5.启动Kibana
docker run -it -d -e ELASTICSEARCH_URL=http://127.0.0.1:9200 --name kibana --network=container:elasticsearch kibana:6.7.2
6.关闭防火墙
systemctl disable firewalld
7.访问Kibana主页面
能够成功访问到kibana主页面,则说明Kibana也已经启动成功了
http://192.168.102.152:5601
8.ES默认的分词器是standard
http://192.168.102.152:9200/_analyze
“武汉”本身就是一个词,但是standard分词器会将其拆分成两个词,可见这样的分词器对中文非常不友好,我们需要整合到ik分词器
9.整合IK分词器
注意:IK分词器一定要和ES保持同一个版本
在服务器上创建目录mkdir /usr/share/elasticsearch/plugins 上传准备的好的ik分词器 拷贝到es容器中
将ik分词器拷贝到容器中
docker cp /usr/share/elasticsearch/plugins/ik 容器id:/usr/share/elasticsearch/plugins/ik
进入容器,查看ik分词器已经成功拷贝进来了
docker ps
docker exec -it 容器id bash
注意:需要重启ES和Kibana
10.测试IK分词器是否能够使用
到这里安装ES&Kibana,整合IK分词器已经到此结束啦
只有登上山顶,才能看到那边的风光。