Elasticsearch-20.集群分布式模型及选主与脑裂问题和分片与集群的故障转移

Elasticsearch

集群分布式模型及选主与脑裂问题

分布式特性

  • Elasticsearch 的分布式架构带来的好处
    • 存储的水平扩容,支持PB级数据
      - 提高系统的可用性,部分节点停止服务,整个集群的服务不受影响
  • Elasticsearch 的分布式架构
    • 不同的集群通过不同的名字来区分,默认名字“elasticsearch”
    • 通过配置文件修改,或者在命令行中-E cluster.name=geektime进行设定

节点

  • 节点是一个Elasticsearch的实例
    • 其本质上就是一个JAVA进程
    • 一台机器上可以运行多个Elasticsearch进程,但是生产环境一般建议一台机器上就运行一个Elasticsearch实例
  • 每一个节点都有名字, 通过配置文件配置,或者启动时候-E node.name=geektime指定
  • 每一个节点在启动之后, 会分配一个UID,保存在data目录下

Coordinating Node

  • 处理请求的节 点,叫Coordinating Node
    • 路由请求到正确的节点,例如创建索引的请求,需要路由到Master
      节点
  • 所有 节点默认都是Coordinating Node
  • 通过将其他类型设 置成False,使其成为Dedicated Coordinating Node

Demo一启动节点,Cerebro 介绍

  • 启动一个节点的

    • bin/ elasticsearch -E node.name=node1 -E cluster.name=geektime -E path.data=node1_ data -E
      http.port=9200
  • https:/ /github.com/lmenezes/ cerebro/releases

    • Overview /Filter by node / index
    • Nodes
    • REST / More
    • Health Status

Demo -创建一个 新的索引

  • 发送创建索引的请求
    • Settings 3 Primary和1个Replica
    • 请求可以发送到任何的节 点,处理你请求的节点,叫做Coordinating Node
    • 创建 /删除索引的请求,只能被Master节点处理

Data Node

  • 可以保存数据的节点,叫做Data Node

    • 节点启动后,默认就是数据节点。可以设置node.data: false禁止
  • Data Node的职责

    • 保存分片数据。在数据扩展上起到了至关重要的作用(由Master Node决定如何把分片分
      发到数据节点上)
  • 通过增加数据节点

    • 可以解决数据水平扩展和解决数据单点问题

Master Node

  • Master Node 的职责

    • 处理创建,删除索引等请求/决定分片被分配到哪个节点/负责索引的创建与删除
    • 维护并 且更新Cluster State
  • Master Node的最佳实践

    • Master节点非常重要,在部署上需要考虑解决单点的问题
    • 为一个集群设置多个Master节点/每个节点只承担Master的单一角色

Master Eligible Nodes &选主流程

  • 一个集群,支持配置多个Master Eligible节点。这些节点可以在必要时(如Master节点出
    现故障,网络故障时)参与选主流程,成为Master节点
  • 每个节点启动后, 默认就是一个Master eligible 节点
    • 可 以设置node.master: false禁止
  • 当 集群内第一个Master eligible节点启动时候,它会将自己选举成Master节点

集群状态

  • 集群状态信息(Cluster State),维护了一个集群中,必要的信息
    • 所有 的节点信息
    • 所有 的索引和其相关的Mapping与Setting 信息
    • 分片 的路由信息.
  • 在每个节点 上都保存了集群的状态信息
  • 但是,只有Master节点才能修改集群的状态信息,并负责同步给其他节点
    • 因为, 任意节点都能修改信息会导致Cluster State信息的不一致

Demo一增加一个新的节点

  • bin/elasticsearch -E node.name=node2 -E cluster.name=geektime -E
    path.data=node2_ data -E http.port=9201

  • Nodes API看到新增节点

  • 发现Replica被分配

Master Eligible Nodes &选主的过程

  • 互相Ping对方,Node Id低的会成为被选举的节点
  • 其他节点会加入集群,但是不承担Master节点的角色。一旦发现被选中的主节点丢失,
    就会选举出新的Master节点
    在这里插入图片描述

脑裂问题

  • Split- -Brain,分布式系统的经典网络问题,当出现网络问题,一个节点和其他节点无法连接
    • Node2和Node3会重新选举Master
    • Node 1自己还是作为Master, 组成一个集群,同时更新Cluster State
    • 导致2个master, 维护不同的cluster state。 当网络恢复时,无法选择正确恢复
      在这里插入图片描述

如何避免脑裂问题

  • 限定一个选举条件,设置quorum(仲裁),只有在Master eligible 节点数大于quorum 时,才能
    进行选举

    • Quorum= (master 节点总数/2) + 1
    • 当3个master eligible 时,设置discovery .zen.minimum_ master_ nodes 为2,即可避免脑裂
  • 从7.0 开始,无需这个配置

    • 移除minimum_ master_ nodes参数,让Elasticsearch自 己选择可以形成仲裁的节点。

    • 典型的主节点选举现在只需要很短的时间就可以完成。集群的伸缩变得更安全、更容易,并且可能造成丢失数据的系统配置选项更少了。

    • 节点更清楚地记录它们的状态,有助于诊断为什么它们不能加入集群或为什么无法选举出主节点

配置节点类型

一个节点默认情况下是一个Master eligible, data and ingest node:

节点类型配置参数默认值
maste eligiblenode.mastertrue
datanode.datatrue
ingestnode.ingesttrue
coordinating only设置.上面三个参数全部为false
machine learningnode.mltrue (需要enable x- -pack)

知识点回顾

  • Elasticsearch 天生的分布式架构。为了实现实现数据可用性

    • 部署多台Data Nodes,可以实现数据存储的水平扩展.
  • 提高服务可用性

    • Master节点非常重要。设置多台Master Eligible Nodes,同时设置合理的quorum数,避免脑
      裂问题
    • 设置多台 Coordinating Node,提升查询的可用性和性能

分片与集群的故障转移

Primary Shard -提升系统存储容量

  • 分片是Elasticsearch分布式存储的基石
    • 主分片/副本分片
  • 通过主分片, 将数据分布在所有节点上
    • Primary Shard,可以将- -份索引的数据,分散在多个Data Node上,实现存储的水平扩展
    • 主分片(Primary Shard)数在索引创建时候指定,后续默认不能修改,如要修改,需重建索引

Replica Shard -提高数据可用性

  • 数据可用性

    • 通过引入副本分片(Replica Shard)提高数据的可用性。-旦主分片丢失,副本分片可以Promote成主分片。副本分片数可以动态调整。每个节点上都有完备的数据。如果不设置副本分片,-旦出现节点硬件故障,就有可能造成数据丢失
  • 提升系统的读取性能

    • 副本分片由主分片(Primary Shard)同步。通过支持增加Replica个数,-定程度可以提高读取的吞吐量

分片数的设定

  • 如何规划一个索引的主分 片数和副本分片数.

    • 主分片数过小:例如创建了1个Primary Shard的Index
      • 如果该索引增长很快,集群无法通过增加节点实现对这个索引的数据扩展
  • 主分片 数设置过大:导致单个Shard容量很小,引发一个节点上有过多分片,影响性能

  • 副本分片数设置过多,会降低集群整体的写入性能

单节点集群

在这里插入图片描述

增加一个数据节点

在这里插入图片描述

再增加一个数据节点在这里插入图片描述

故障转移

在这里插入图片描述

集群健康状态

在这里插入图片描述

Demo

  • 启动一个节点,3个Primary shard, 一个Replica, 集群黄色,因为无法分配Replica
  • 启动三个节点,1个索引上包含3个Primary Shard, -个Replica
  • 关闭 Node 1 (Master)
  • 查看 Master Node重新选举
  • 集群变黄, 然后重新分配

本节知识点回顾

  • 主分片,副本分片的作用.

    • 主分片的分片数,设置后不能修改,除非重新索引数据
    • 副本分片可以随时修改
  • 集群的故障转移

    • 需要集群具备故障转移的能力, 必须将索引的副本分片数设置为1,否则,- -点有节点就是,就会造成数据丢失
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值