Elasticsearch集群安装部署

单机的安装在我之前的文章中,要想安装集群版,请先看我的“Elasticsearch安装”中的基础操作

1、相关概念

1.1、单机&集群

单台Elasticsearch服务器提供服务,往往都有最大的负载能力,超过这个阈值,服务器性能就会大大降低甚至不可用,所以生产环境中,一般都是运行在指定服务器集群中。
除了负载能力,单点服务器也存在其他问题:

  • 单台机器存储容量有限
  • 单服务器容易出现单点故障,无法实现高可用
  • 单服务的并发处理能力有限

配置服务器集群时,集群中节点数量没有限制,大于等于 2 个节点就可以看做是集群了。一 般出于高性能及高可用方面来考虑集群中节点数量都是 3 个以上。

1.2、集群Cluster

一个集群就是由一个或多个服务器节点组织在一起,共同持有整个的数据,并一起提供索引和搜索功能。一个 Elasticsearch 集群有一个唯一的名字标识,这个名字默认就 是”elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入这个集群。

1.3、节点Node

集群中包含很多服务器,一个节点就是其中的一个服务器。作为集群的一部分,它存储数据,参与集群的索引和搜索功能。
一个节点也是由一个名字来标识的,默认情况下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启动的时候赋予节点。这个名字对于管理工作来说挺重要的,因为在这个管理过程中,你会去确定网络中的哪些服务器对应于 Elasticsearch 集群中的哪些节点。
一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫做“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做 “elasticsearch”的集群中。
在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运 行任何 Elasticsearch 节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的 集群。

2、win版集群

2.1、部署集群

1)创建elasticsearch-cluster文件夹,在内部复制三个elasticsearch服务
image.png
2)修改集群文件目录中的每个节点的config/elasticsearch.yml配置文件

  • node-1001节点
# 配置es集群的名称:三个节点必须一样
cluster.name: my-application
# 节点名称:三个节点不相同:node-1001 node-1002 node-1003
node.name: node-1001
# 指定该节点是否有资格被选举成为node
node.master: true
# 指定该节点是否存储索引数据,默认为true
node.data: true
# 设置绑定的IP地址,还有其他节点和该节点交互的IP地址,本机ip
network.host: 127.0.0.1
# 指定http端口
http.port: 1001
# 设置节点间交互的tcp端口,默认9300
transport.tcp.port: 9401
# 设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点
# 因为另外两台节点的端口自会设置为9301和9302,所以写入两台es的完整地址
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9401","127.0.0.1:9402","127.0.0.1:9403"]
# 初始化主节点,在启动集群时,指定一个node-1001为主节点
cluster.initial_master_nodes: node-1001
# 使head插件可以访问es  也就是有跨域的功能
http.cors.enabled: true
http.cors.allow-origin: "*"
  • node-1002节点
cluster.name: my-application
node.name: node-1002
node.master: true
node.data: true
network.host: 127.0.0.1
http.port: 1002
transport.tcp.port: 9402
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9401","127.0.0.1:9402","127.0.0.1:9403"]
cluster.initial_master_nodes: node-1001
http.cors.enabled: true
http.cors.allow-origin: "*"
  • node-1003节点
cluster.name: my-application
node.name: node-1003
node.master: true
node.data: true
network.host: 127.0.0.1
http.port: 1003
transport.tcp.port: 9403
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9401","127.0.0.1:9402","127.0.0.1:9403"]
cluster.initial_master_nodes: node-1001
http.cors.enabled: true
http.cors.allow-origin: "*"

2.2、启动集群

1)启动前先删除每个节点中的data目录中所有内容(如果存在)
image.png
2)分别双击执行bin/elasticsearch.bat,启动节点服务器,启动后,会自动加入到指定名称的集群

2.3、测试集群

2.3.1、查看集群状态

👉 node-1001节点
image.png
👉 node-1002节点
image.png
👉 node-1003节点
image.png
srarus字段指示着当前集群在总体上是否工作正常。他的三种颜色含义如下:

  • green所有的主分片和副分片都正常运行
  • yellow所有的主分片都正常运行,但不是所有的副分片都正常运行
  • red有主分片没能正常运行
2.3.2、向集群中node-1001节点添加索引

image.png
返回结果

{
  "acknowledged": true,
  "shards_acknowledged": true,
  "index": "user"
}

2.3.3、向集群中node-1002节点查询索引

image.png
返回结果

{
    "user": {
        "aliases": {},
        "mappings": {},
        "settings": {
            "index": {
                "creation_date": "1667052837503",
                "number_of_shards": "1",
                "number_of_replicas": "1",
                "uuid": "YQAFDJl3TZCxcZ9Ok60_8Q",
                "version": {
                    "created": "7080099"
                },
                "provided_name": "user"
            }
        }
    }
}

3、Linux版集群

3.1、下载

下载LINUX X86_64 sha版本
image.png

2.2、部署集群

# 1.先创建一个es-cluster文件夹
mkdir es-cluster

# 2.创建用户,因为安全问题,elasticsearch不允许root用户直接运行,所以要创建新用户,在root用户中创建新用户
useradd es #新增es用户
passwd es #为es用户设置密码

userdel -r es #如果错了,可以删除再加
chown -R es:es /software/es/es-cluster/ #文件夹所有者,添加权限

# 3.将es解压到es-cluster中
tar -zxvf elasticsearch-7.8.0-linux-x86_64.tar.gz -C /software/es/es-cluster/

# 4.修改名字
mv elasticsearch-7.8.0 node-10001

# 5.将node-1001复制两份
cp -r node-10001 node-10002
cp -r node-10001 node-10003

# 6.分别修改三个节点的配置文件
vim /software/es/es-cluster/node-10001/config/elasticsearch.yml
#添加下面配置
#集群名称
cluster.name: cluster-es
#节点名称,每个节点的名称不能重复
node.name: node-1
#ip 地址
network.host: 0.0.0.0
#是不是有资格主节点
node.master: true
node.data: true
http.port: 10001
#tcp 监听端口
transport.tcp.port: 9301
# head 插件需要这打开这两个配置
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
#es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master
cluster.initial_master_nodes: ["node-1"]
#es7.x 之后新增的配置,节点发现
discovery.seed_hosts: ["localhost:9301","localhost:9302","localhost:9303"]
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true
#集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 16
#添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 16
#初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 16


vim /software/es/es-cluster/node-10002/config/elasticsearch.yml
#添加下面配置
#集群名称
cluster.name: cluster-es
#节点名称,每个节点的名称不能重复
node.name: node-2
#ip 地址
network.host: 0.0.0.0
#是不是有资格主节点
node.master: true
node.data: true
http.port: 10002
#tcp 监听端口
transport.tcp.port: 9302
# head 插件需要这打开这两个配置
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
#es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master
cluster.initial_master_nodes: ["node-1"]
#es7.x 之后新增的配置,节点发现
discovery.seed_hosts: ["localhost:9301","localhost:9302","localhost:9303"]
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true
#集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 16
#添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 16
#初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 16

vim /software/es/es-cluster/node-10003/config/elasticsearch.yml
#添加下面配置
#集群名称
cluster.name: cluster-es
#节点名称,每个节点的名称不能重复
node.name: node-3
#ip 地址
network.host: 0.0.0.0
#是不是有资格主节点
node.master: true
node.data: true
http.port: 10003
#tcp 监听端口
transport.tcp.port: 9303
# head 插件需要这打开这两个配置
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
#es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master
cluster.initial_master_nodes: ["node-1"]
#es7.x 之后新增的配置,节点发现
discovery.seed_hosts: ["localhost:9301","localhost:9302","localhost:9303"]
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true
#集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 16
#添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 16
#初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 16

# 7.修改下面配置文件
vim /etc/security/limits.conf
# 在文件末尾中增加下面内容
# 每个进程可以打开的文件数的限制
es soft nofile 65536
es hard nofile 65536

vim /etc/security/limits.d/20-nproc.conf
# 在文件末尾中增加下面内容
# 每个进程可以打开的文件数的限制
es soft nofile 65536
es hard nofile 65536
# 操作系统级别对每个用户创建的进程数的限制
* hard nproc 4096
# 注:* 带表 Linux 所有用户名称

vim /etc/sysctl.conf
# 在文件中增加下面内容
# 一个进程可以拥有的 VMA(虚拟内存区域)的数量,默认值为 65536
vm.max_map_count=655360

# 4.重新加载
sysctl -p

2.3、启动集群

# 切换到es用户
su es
# 分别启动三个节点
[es@zq node-10001]# cd bin/
[es@zq bin]# ./elasticsearch
# 后台启动
./elasticsearch -d

2.4、测试集群

image.png

4、注意事项

每个ES集群都维护一个选举配置集合(Voting Configurations),这个选举集合由可以选举为主节点的master类型节点组成。
它除了提供选举功能,还决定者集群的状态,当选举配置集合中超过一半的节点存活时,集群才提供服务(也就是过半原则,通常集群解决脑裂问题都是采用这种方式)。
比如,我们创建的3个节点的集群,如果挂掉两个,存活的节点数已经不到一半了,那么此集群就不提供服务了。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

深海@

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值