说明
- CentOS下ElasticSearch集群搭建
- 集群搭建的一些准备工作是基于单节点安装,具体参照我的上一篇文章“CentOS下安装ElasticSearch”
- 本案例以单服务器多端口模拟集群环境(由node-9201、node-9202、node-9203三个节点共同组成)
- ES集群正常工作至少需要3台服务节点。如果只有两台节点,当主节点挂掉后会导致另一台是无法被选举为主节点,最终导致整个集群停止服务。如果3台中两台宕机也会导致集群停止服务。
- 具体影响因素参考本文“其他配置”中的
discovery.zen.minimum_master_nodes
参数
- 具体影响因素参考本文“其他配置”中的
- 官方文档:https://www.elastic.co/cn/
操作步骤
》解压缩
-
安装包列表
[root@192 ES]# ll total 311360 -rw-r--r--. 1 501 games 306436527 Jan 17 12:03 elasticsearch-7.9.3-linux-x86_64.tar.gz
-
解压缩到一个目录,比如:
/usr/local/es/cluster/node-9201
-
确定已经添加了es用户
-
确定目录所属用户为es,如果不是,root身份执行以下命令
[root@192 ES]# chown -R es:es /usr/local/es/cluster/
-
接下来的操作切换为es用户
[root@192 ES]# su es
-
切换到该目录
[es@192 node-9201]$ pwd /usr/local/es/cluster/node-9201 [es@192 node-9201]$ ll total 568 drwxr-xr-x. 2 es es 4096 Jan 20 22:44 bin drwxr-xr-x. 3 es es 169 Jan 20 22:44 config drwxr-xr-x. 8 es es 96 Jan 20 22:44 jdk drwxr-xr-x. 3 es es 4096 Jan 20 22:44 lib -rw-r--r--. 1 es es 13675 Jan 20 22:44 LICENSE.txt drwxr-xr-x. 2 es es 6 Jan 20 22:44 logs drwxr-xr-x. 51 es es 4096 Jan 20 22:44 modules -rw-r--r--. 1 es es 544318 Jan 20 22:44 NOTICE.txt drwxr-xr-x. 2 es es 6 Jan 20 22:44 plugins -rw-r--r--. 1 es es 7007 Jan 20 22:44 README.asciidoc
》修改配置
-
config/jvm.options
-Xms128m -Xmx128m
-
config/elasticsearch.yml
# 集群名称 cluster.name: my-app # 节点名称 node.name: node-9201 # 节点是否可作为master node.master: true # 节点是否数据节点 node.data: true # host名称(可以是IP,也可以是hostname) network.host: 192.168.3.201 # http端口 http.port: 9201 # 集群节点间通信端口 transport.port: 9301 # 集群初始化时可被选举master的节点 cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"] # 节点发现(可以是IP,也可以是hostname) discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]
-
注意:此时修改好先不要启动,如果启动了,下一步复制文件夹时,新的文件夹中需要清空data文件夹和logs文件夹否则启动报错。
》克隆配置好的ES环境并更改端口等配置
-
将上一步配置好的文件夹“node-9201”整个复制两份,分别命名为“node-9202”、“node-9203”
[es@192 cluster]$ pwd /usr/local/es/cluster [es@192 cluster]$ ll total 0 drwxr-xr-x. 10 es es 167 Jan 21 17:29 node-9201 drwxr-xr-x. 10 es es 167 Jan 21 17:30 node-9202 drwxr-xr-x. 10 es es 167 Jan 21 17:30 node-9203
-
修改配置:node-9202/config/elasticsearch.yml
# 集群名称 cluster.name: my-app # 节点名称 node.name: node-9202 # 节点是否可作为master node.master: true # 节点是否数据节点 node.data: true # host名称(可以是IP,也可以是hostname) network.host: 192.168.3.201 # http端口 http.port: 9202 # 集群节点间通信端口 transport.port: 9302 # 集群初始化时可被选举master的节点 cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"] # 节点发现(可以是IP,也可以是hostname) discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]
-
修改配置:node-9203/config/elasticsearch.yml
# 集群名称 cluster.name: my-app # 节点名称 node.name: node-9203 # 节点是否可作为master node.master: true # 节点是否数据节点 node.data: true # host名称(可以是IP,也可以是hostname) network.host: 192.168.3.201 # http端口 http.port: 9203 # 集群节点间通信端口 transport.port: 9303 # 集群初始化时可被选举master的节点 cluster.initial_master_nodes: ["node-9201", "node-9202", "node-9203"] # 节点发现(可以是IP,也可以是hostname) discovery.seed_hosts: ["192.168.3.201:9301", "192.168.3.201:9302", "192.168.3.201:9303"]
》分别启动三个ES服务
-
便于查看日志,首次先前台启动
# 启动第一个节点:node-9201 [es@192 node-9201]$ bin/elasticsearch # 启动第二个节点:node-9202 [es@192 node-9202]$ bin/elasticsearch # 启动第三个节点:node-9203 [es@192 node-9203]$ bin/elasticsearch
-
如果没有问题,以后可以后台启动
# 启动第一个节点:node-9201 [es@192 node-9201]$ bin/elasticsearch -d # 启动第二个节点:node-9202 [es@192 node-9202]$ bin/elasticsearch -d # 启动第三个节点:node-9203 [es@192 node-9203]$ bin/elasticsearch -d
-
后续可以考虑做成系统服务,start|stop|restart就方便了,然后加入开启自启动。具体可以参考我的Linux开机自启动相关文章,改吧改吧就行了,标特否~
》查看集群状态
-
请求方式:GET
-
发送请求:
curl -X GET http://192.168.3.201:9201/_cat/nodes?v
-
响应结果:
ip heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name 192.168.3.201 57 93 31 5.45 1.97 0.92 dilmrt * node-9201 192.168.3.201 68 93 28 5.45 1.97 0.92 dilmrt - node-9203 192.168.3.201 60 93 23 5.45 1.97 0.92 dilmrt - node-9202
》其他配置
-
以下配置可能你会用到
# 选取master时需要参与的最少候选主节点数,默认1。如果使用默认值,网络不好时可能出现脑裂问题。 discovery.zen.minimum_master_nodes: 1 # 跨域相关配置(head插件需要开启) http.cors.allow-origin: "*" http.cors.enabled: true http.max_content_length: 100mb # 网络其他配置 gateway.recover_after_nodes: 2 network.tcp.keep_alive: true network.tcp.no_delay: true transport.tcp.compress: true # 集群内同时启动的数据任务个数,默认是2个 cluster.routing.allocation.cluster_concurrent_rebalance: 4 # 添加或删除节点及负载均衡时并发恢复的线程个数,默认4个 cluster.routing.allocation.node_concurrent_recoveries: 8 # 初始化数据恢复时,并发恢复线程的个数,默认4个 cluster.routing.allocation.node_initial_primaries_recoveries: 8