基于上一篇文章,搭建elasticsearch7.6.1集群环境
本次使用三个节点,构成集群
ip | 角色 | 配置 |
172.16.227.235 | node1 | 8G |
172.16.227.236 | node2 | 8G |
172.16.227.229 | node3 | 8G |
node1的配置,elasticsearch.yml如下:
cluster.name: es-credit
node.name: node1
# 索引数据存放的位置
path.data: /usr/local/es/elasticsearch-7.6.1/data
# 日志文件存放的位置
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.235
# es对外提供的http端口,默认 9200
http.port: 9200
# TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
#bootstrap.system_call_filter: false
# 需求锁住物理内存,是:true、否:false
#bootstrap.memory_lock: false
# 是否支持跨域,是:true,在使用head插件时需要此配置
http.cors.enabled: true
# “*” 表示支持所有域名
http.cors.allow-origin: "*"
node2配置
cluster.name: es-credit
node.name: node2
path.data: /usr/local/es/elasticsearch-7.6.1/data
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.236
#对外提供的http端口,默认 9200
http.port: 9200
# TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# # es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# # es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
# #bootstrap.system_call_filter: false
# # 需求锁住物理内存,是:true、否:false
# #bootstrap.memory_lock: false
# # 是否支持跨域,是:true,在使用head插件时需要此配置
http.cors.enabled: true
# # “*” 表示支持所有域名
http.cors.allow-origin: "*"
node3的配置
cluster.name: es-credit
node.name: node3
path.data: /usr/local/es/elasticsearch-7.6.1/data
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.229
# es对外提供的http端口,默认 9200
http.port: 9200
# # TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# # es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# # es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
# #bootstrap.system_call_filter: false
# # 需求锁住物理内存,是:true、否:false
# #bootstrap.memory_lock: false
# # 是否支持跨域,是:true,在使用head插件时需要此配
http.cors.enabled: true
# # “*” 表示支持所有域名
http.cors.allow-origin: "*"
最终访问任意节点地址:9200/_cat/nodes?pretty:
http://172.16.227.235:9200/_cat/nodes?pretty
看到如下,node1是master主节点
三台机器分配配置kibana
#添加如下配置
elasticsearch.hosts: ["http://172.16.227.235:9200", "http://172.16.227.236:9200","http://172.16.227.229:9200"]
elasticsearch.requestTimeout: 30000
#根据当前机器配置填写
server.host: "172.16.227.235"
server.name: "es_kibana"
server.port: 5601
# 汉化
i18n.locale: "zh-CN"