通过docker-compose快速安装elasticsearch

15 篇文章 0 订阅
1 篇文章 0 订阅

1上传docer-compose.yml文件到服务器 /usr/local/myserver 需要修改文件里面的ip地址

docer-compose.yml文件下载地址

docker-compose.yml-Java文档类资源-CSDN下载

 2 执行docker -compose up -d elasticsearch kibana  启动容器命令

通过docker ps -a查询是否启动成功

 3 第一次执行会失败 需要给当前文件夹下生成的es文件夹授予权限 chomd 777 -R ./es

 

 4 在重新启动es  docker restart elasticsearch

启动成功之后访问elasticsearch http://服务器ip:9200/ 出现下面画面就是启动成功

 访问kibana http://10.1.104.64:5601/服务器iphttp://10.1.104.64:5601/

 
5 安装ik中文分词器 查询es匹配的版本下载ik分词器 

 Release v7.7.1 · medcl/elasticsearch-analysis-ik · GitHub

 6 上传ik分词器压缩包到 宿主机容器路径  就是es下面的plugins路径 

 

 7 通过unzip命令解压 解压IK分词器 重命名为ik-analysis  然后删除解压包

 8 重启es  docker restart elasticsearch

 9 测试分词是否生效 

 以下是2种分词器的介绍

1、ik_max_word

会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。

2、ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。

网上关于两种分词器使用的最佳实践是:索引时用ik_max_word,在搜索时用ik_smart。

即:索引时最大化的将文章内容分词,搜索时更精确的搜索到想要的结果。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值