Elasticsearch-搭建ES集群,安装IK分词器-Docker(一)

1. 安装Elasticsearch

1.1 安装

docker pull elasticsearch:7.9.3

1.2 创建虚拟网络和挂载目录

# 创建虚拟网络
docker network create es-net

# 创建并设置文件属性为777
# node1 的挂载目录
mkdir -p -m 777 /var/lib/es/node1/plugins
mkdir -p -m 777 /var/lib/es/node1/data

# node2 的挂载目录
mkdir -p -m 777 /var/lib/es/node2/plugins
mkdir -p -m 777 /var/lib/es/node2/data

# node3 的挂载目录
mkdir -p -m 777 /var/lib/es/node3/plugins
mkdir -p -m 777 /var/lib/es/node3/data

1.3 修改系统参数 max_map_count

需要修改系统参数才能启动ES, 在/etc/sysctl.conf配置文件中添加vm.max_map_count=262144
也可通过vim添加

echo 'vm.max_map_count=262144' >>/etc/sysctl.conf

重启服务器即可(重启Linux系统)

1.4 启动Elasticsearch集群

node1

docker run -d \
  --name=node1 \
  --restart=always \
  --net es-net \
  -p 9200:9200 \
  -p 9300:9300 \
  -v /var/lib/es/node1/plugins:/usr/share/elasticsearch/plugins \
  -v /var/lib/es/node1/data:/usr/share/elasticsearch/data \
  -e node.name=node1 \
  -e node.master=true \
  -e network.host=node1 \
  -e discovery.seed_hosts=node1,node2,node3 \
  -e cluster.initial_master_nodes=node1 \
  -e cluster.name=es-cluster \
  -e "ES_JAVA_OPTS=-Xms256m -Xmx256m" \
  elasticsearch:7.9.3

参数说明

属性说明
node.name节点在集群中的唯一名称
node.master可以被选举为主节点
network.host当前节点地址
discovery.seed_hosts集群中其他节点的地址列表
cluster.initial_master_nodes候选的主节点地址列表
cluster.name集群名
ES_JAVA_OPTSjava虚拟机参数

node2

docker run -d \
  --name=node2 \
  --restart=always \
  --net es-net \
  -p 9201:9200 \
  -p 9301:9300 \
  -v /var/lib/es/node2/plugins:/usr/share/elasticsearch/plugins \
  -v /var/lib/es/node2/data:/usr/share/elasticsearch/data \
  -e node.name=node2 \
  -e node.master=true \
  -e network.host=node2 \
  -e discovery.seed_hosts=node1,node2,node3 \
  -e cluster.initial_master_nodes=node1 \
  -e cluster.name=es-cluster \
  -e "ES_JAVA_OPTS=-Xms256m -Xmx256m" \
  elasticsearch:7.9.3

node3

docker run -d \
  --name=node3 \
  --restart=always \
  --net es-net \
  -p 9202:9200 \
  -p 9302:9300 \
  -v /var/lib/es/node3/plugins:/usr/share/elasticsearch/plugins \
  -v /var/lib/es/node3/data:/usr/share/elasticsearch/data \
  -e node.name=node3 \
  -e node.master=true \
  -e network.host=node3 \
  -e discovery.seed_hosts=node1,node2,node3 \
  -e cluster.initial_master_nodes=node1 \
  -e cluster.name=es-cluster \
  -e "ES_JAVA_OPTS=-Xms256m -Xmx256m" \
  elasticsearch:7.9.3

查看集群启动
http://192.168.126.130:9200
http://192.168.126.130:9200/_cat/nodes

在这里插入图片描述

1.5 安装chrome浏览器插件:elasticsearch-head

elasticsearch-head 项目提供了一个直观的界面,可以很方便地查看集群、分片、数据等等。elasticsearch-head最简单的安装方式是作为 chrome 浏览器插件进行安装。
下载地址:https://github.com/mobz/elasticsearch-head/raw/master/crx/es-head.crx
使用方式搜百度

效果:
在这里插入图片描述

2. 安装IK分词器

2.1 下载IK分词器

下载地址: https://github.com/medcl/elasticsearch-analysis-ik
       或者: https://gitee.com/mirrors/elasticsearch-analysis-ik
注意: IK分词器版本要与ES版本一致(这里使用的7.9.3)

下载 elasticsearch-analysis-ik-7.9.3.zip 上传到Linux系统的/root/目录下

2.2 安装IK分词器

# 复制IK分词器到容器中
docker cp elasticsearch-analysis-ik-7.9.3.zip node1:/root/
docker cp elasticsearch-analysis-ik-7.9.3.zip node2:/root/
docker cp elasticsearch-analysis-ik-7.9.3.zip node3:/root/

# 在ES中安装IK分词器
docker exec -it node1 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip

docker exec -it node2 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip

docker exec -it node3 elasticsearch-plugin install file:///root/elasticsearch-analysis-ik-7.9.3.zip

# 重启三个 IK 容器
docker restart node1 node2 node3

查看分词器安装结果
http://192.168.126.130:9200/_cat/plugins

2.3 如果分词器不可用

如果插件不可用,可以卸载后重新安装:

docker exec -it node1 elasticsearch-plugin remove analysis-ik

docker exec -it node2 elasticsearch-plugin remove analysis-ik

docker exec -it node3 elasticsearch-plugin remove analysis-ik

2.4 分词测试

ik分词器提供两种分词器:

ik_max_word 分词测试

ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华国歌”分成"中华", “华国”, “国歌”,穷举所有可能
适合 Term Query 查询

使用浏览器插件, 通过复杂查询向
http://192.168.126.130:9200/_analyze
地址发送POST请求

{
  "analyzer":"ik_max_word",
  "text":"中华人民"
}

在这里插入图片描述

ik_smart 分词测试

ik_smart: 会做最粗粒度的拆分, 比如会将"中华国歌"分成如下"中华", “国歌”
适合 Phrase 查询

使用浏览器插件, 通过复杂查询向
http://192.168.126.130:9200/_analyze
地址发送POST请求

{
  "analyzer":"ik_smart",
  "text":"中华国歌"
}

在这里插入图片描述

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值