Elasticsearch-2-ES高可用以及容错机制

本文介绍了Elasticsearch的高可用性和容错机制。通过示例展示了如何在集群中添加节点以提高数据承载量和QPS,并解释了主分片和副本分片的分布策略以确保数据完整性和容错性。还探讨了如何选择合适的高可用配置,包括Master节点选举、数据节点和Master节点的分离以及仅协调节点的角色。最后,详细阐述了ES的容错机制,包括Master节点宕机时的数据恢复流程。
摘要由CSDN通过智能技术生成

ES的容错机制以及如何实现高可用

假设现在有一个ES最小可用集群,每个节点的磁盘都是6TB,最大QPS为1000,如下图所示:

  • P0,P1,P2是一份完整的数据,R0,R1,R2是一份完整的数据;
  • P0,P1,P2 提供读写、R0,R1,R2提供只读
    在这里插入图片描述
  1. 两台节点,3个primary和3个Replica,最大承载数据量是6TB
  2. 冗余副本数量是1,可容忍一台节点宕机,磁盘的利用率是50%
  3. 理论可承载的最大QPS:2000
1. 高可用-1

假如对上面的最小可用集群新增一台节点进来,ES会自动进行分片均衡,且冗余副本分片和主分片不能存在于同一台节点上面,如下图:
横向扩容

  1. 三台节点,分片数量不变,每个分片容量由2TB提升到了3T,索引的数据承载量增大到了9TB
  2. 冗余副本的数量不变,可容忍1台(1/3)的节点宕机
  3. 理论最大可承受的QPS:3000
2. 高可用-2
  • 为Primary添加第二个Replica
  • 三台节点,3个Primary每个Primary两个副本共6个Replica
  1. 为了最大程度宝成数据的可用性,ES让每个节点尽量分配完整的0/1/2三个不同的分片,保证数据完成性,这样,任何一台机器都能找到完整的数据,从而实现高可用。
  2. 最大数据量6TB
  3. 理论最大可承受QPS:3000
3. 如何选择ES高可用?
  1. )ES在分配单个索引的分片时会将每个分片尽可能分配到更多的节点上。但是,实际情况取决于集群拥有的分片和索引的数量以及它们的大小,所以这种情况只是理想状况。
  2. )ES不允许Primary和它的Replica放在同一个节点中(为了容错),并且同一个节点不接受完全相同的两个Replica,也就是说,因为同一个节点存放两个相同的副本既不能提升吞吐量,也不能提升查询速度,徒耗磁盘空间。
  3. )每台节点的shard数量越少,每个shard分配的CPU、内存和IO资源越多,单个shard的性能越好,当一台机器一个Shard时,单个Shard性能最好。
  4. )相同资源分配相同的前提下,单个shard的体积越大,查询性能越低,速度越慢。
  5. )稳定的Master节点对于群集健康非常重要!理论上讲,应该尽可能的减轻Master节点的压力,分片数量越多,Master节点维护管理shard的任务越重,并且节点可能就要
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值