elasticsearch集群

基于上一篇文章,搭建elasticsearch7.6.1集群环境

 

ElasticSearch入门

本次使用三个节点,构成集群

ip角色配置
172.16.227.235node18G
172.16.227.236node28G
172.16.227.229node38G

node1的配置,elasticsearch.yml如下:

cluster.name: es-credit
node.name: node1
# 索引数据存放的位置
path.data: /usr/local/es/elasticsearch-7.6.1/data
# 日志文件存放的位置
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.235
# es对外提供的http端口,默认 9200
http.port: 9200
# TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
#bootstrap.system_call_filter: false
# 需求锁住物理内存,是:true、否:false
#bootstrap.memory_lock: false
# 是否支持跨域,是:true,在使用head插件时需要此配置
http.cors.enabled: true
# “*” 表示支持所有域名
http.cors.allow-origin: "*"

node2配置

cluster.name: es-credit
node.name: node2
path.data: /usr/local/es/elasticsearch-7.6.1/data
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.236
#对外提供的http端口,默认 9200
http.port: 9200
# TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# # es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# # es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
# #bootstrap.system_call_filter: false
# # 需求锁住物理内存,是:true、否:false
# #bootstrap.memory_lock: false
# # 是否支持跨域,是:true,在使用head插件时需要此配置
http.cors.enabled: true
# # “*” 表示支持所有域名
http.cors.allow-origin: "*"

node3的配置

cluster.name: es-credit
node.name: node3
path.data: /usr/local/es/elasticsearch-7.6.1/data
path.logs: /usr/local/es/elasticsearch-7.6.1/log
network.host: 172.16.227.229
# es对外提供的http端口,默认 9200
http.port: 9200
# # TCP的默认监听端口,默认 9300
transport.tcp.port: 9300
transport.tcp.compress: true
# # es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点
discovery.seed_hosts: ["172.16.227.235", "172.16.227.236","172.16.227.229"]
# # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4)
discovery.zen.minimum_master_nodes: 2
# # es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举master
cluster.initial_master_nodes: ["node1"]
# #bootstrap.system_call_filter: false
# # 需求锁住物理内存,是:true、否:false
# #bootstrap.memory_lock: false
# # 是否支持跨域,是:true,在使用head插件时需要此配
http.cors.enabled: true
# # “*” 表示支持所有域名
http.cors.allow-origin: "*"

最终访问任意节点地址:9200/_cat/nodes?pretty:

http://172.16.227.235:9200/_cat/nodes?pretty

看到如下,node1是master主节点

 三台机器分配配置kibana

#添加如下配置
elasticsearch.hosts: ["http://172.16.227.235:9200", "http://172.16.227.236:9200","http://172.16.227.229:9200"]
elasticsearch.requestTimeout: 30000
#根据当前机器配置填写
server.host: "172.16.227.235"
server.name: "es_kibana"
server.port: 5601
# 汉化
i18n.locale: "zh-CN"

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值