ES集群red状态排查与恢复

本文详细讲述了如何解决Elasticsearch集群health状态为red的问题,涉及定位故障的步骤,包括检查日志、定位数据节点异常、重启实例、删除manifest文件、监控恢复进度等,最终恢复集群健康并优化分配策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题描述

ElasticSearch开箱即用,本身并没有太多需要配置、调整的参数,平时使用中最大的问题应该就是red状态的处理恢复了。现某用户使用的ES集群报health状态为red要求技术支持。我们首先看到用户提供的状态信息:

{
  "cluster_name" : "real_cluster",
  "status" : "red",
  "timed_out" : false,
  "number_of_nodes" : 101,
  "number_of_data_nodes" : 98,
  "active_primary_shards" : 12345,
  "active_shards" : 23456,
  "relocating_shards" : 0,
  "initializing_shards" : 40,
  "unassigned_shards" : 51,
  "delayed_unassigned_shards": 0,
  "number_of_pending_tasks" : 0,
  "number_of_in_flight_fetch": 0,
  "task_max_waiting_in_queue_millis": 0,
  "active_shards_percent_as_number": 99.704321
}

上述信息后台可以通过命令获取:

curl -X GET "localhost:9200/_cluster/health?pretty"
# 如果开启Xpack了,需要带上密码访问
curl -X GET -k -u username:passwd "https://localhost:9200/_cluster/health?pretty"

上述GET命令也可以直接粘贴在浏览器里获得结果。

问题定位

  1. 界面观察

已知信息是生产环境实际上的ES的数据节点(data node)理论上是99个,现在是98个,master节点是3个。

​ 用户已经反馈从管理界面上观察ES所有实例服务状态全部正常,但集群health是red,这里的差异在于管理页面是检查进程pid判断是否存活的,而ES集群内 部则需要心跳发现机制,因此Web页面显示ES状态ok,但health显示少一个ES节点,表明有一个ES的数据节点(这里称为Slave)失联了。

现在的首要任务就是找到99个es实例里谁在滥竽充数,假装活着!

  1. 后台日志

    后台先去查看ES的master的real_cluster.log,没有找到关于连接的异常信息,里面查不到ERROR。

    后台再去看个ES的slave的日志real_cluster.log,直接翻到最后,发现有连接类的错误出现了。

    关键内容摘要如下:

    xxx-slave failed to connect to xxx2-slave7
    ConnectTransportException xxx2-slave7 general node connection failure
    ……省略很长一串at
    ……
    

    这里的关键信息就是一个slave报告说连不上【xxx2-slave7】,这就找到了。

    查看更多其他slave节点的日志,也都是报连不上【xxx2-slave7

  2. 综上,这个ES实例的名字知道了,顺藤摸瓜,服务器节点是xxx2,ES实例名是slave7,这种错误一般是集群压力大,心跳通信出问题,我们需要去重启这个ES实例。

问题处理

  1. 恢复失联的那个ES实例:上一步我们已经定位到了问题节点,需要通过管理页面重启。

  2. 页面显示重启该ES Slave成功(实际上没有成),过一会儿观察该实例并未在启动状态,ES仍是red,node仍然少一个(health仍显示data nodes 98)。

  3. 再次启动该ES实例,显示成功不久后又挂掉了,属于后台进程启动不久后失败,此时去后台查该实例的日志发现有报错:

    # 关键词
    failed to bind service
    IOException: failed to find metadata for existing index xxx …… [locaton: xxx]
    
  4. 该问题处理办法是删除实例对应的manifest文件。

    这个文件的位置在该ES实例的数据存储目录下,如/data/es/slave7/nodes/0/_state,其中nodes/0/_state这几个目录应该是不变的,前面的路径随配置。

    这个_state下面有manifest-xxx.st文件,直接删除或者备份后删除该文件。

  5. 再次重启该ES实例,如果等一会还未加入ES集群,日志里显示该节点频繁add、remove,再次重启该实例。

  6. 观察health,好了ES的节点数完全恢复了(从98变回了99),集群状态很快从red变成yellow了。

  7. 重点观察,initializing_shardsunassigned_shards一般逐渐减小,分片正在恢复中。

    "initializing_shards" : 40,
    "unassigned_shards" : 51,
    ……
    "active_shards_percent_as_number": 99.884321
    

    集群活跃分片百分比升高,等所有分片恢复完成,则集群会恢复green

    索引分片数据量很大时,恢复需要花费几个小时。

后续处理

  • 如果initializing_shards减小到0了,还有未分配的分片(unassigned_shards不是0),首先应查看未分配的原因,但一般情况可以先执行reroute命令:

    # 尤其在报错原因里提示分配失败是因为达到最大分配次数时,可使用这个命令。
    POST /_cluster/reroute?retry_failed=true&pretty
    
  • 其他根据explain的原因对症下药。

    # 这个命令用来查看分片不分配的原因:
    curl -XGET -k -u name:pass https:esip:9200/_cluster/allocation/explain?pretty
    # 输出的内容可能很多,可以保存到文件查看。
    
### 解决 Elasticsearch 快照恢复集群状态Red 的方案 当执行快照恢复操作之后,如果发现 Elasticsearch 集群状态变为红色 (Red),这通常意味着某些索引分片未能成功分配到节点上。这种情况可能由多种因素引起。 #### 可能的原因分析 1. **磁盘空间不足** 如果目标节点上的可用存储容量不足以容纳正在尝试加载的数据,则可能导致此问题的发生[^1]。 2. **数据分布不均** 当集群中的各个节点间存在显著差异时——比如硬件配置不同步或是网络连接质量参差不齐——可能会造成部分分片无法正常迁移至预期位置。 3. **元数据冲突** 在极少数情况下,旧有残留的元数据记录也可能干扰新版本快照的应用过程,进而影响整个系统的稳定性一致性。 4. **副本设置过高** 若设置了过多的副本来提高冗余度,在资源有限的情况下反而会造成压力过大而难以完成全部任务的要求。 #### 推荐解决方案 针对上述提到的各种可能性,建议采取如下措施来排查并解决问题: - **检查日志信息**:查看 `elasticsearch` 日志文件以获取更详细的错误提示;这些线索有助于定位具体失败原因所在的位置。 - **验证磁盘状况**:确认所有参运算的服务端设备都拥有足够的剩余空间用于承载新增加的工作负载量级,并适当调整相应参数如 `cluster.routing.allocation.disk.watermark.*` 来优化决策逻辑。 - **均衡工作负荷**:通过重新规划架构设计或者引入额外计算单元的方式实现更加合理的分工协作模式,从而减少因局部过载所引发的一系列连锁反应风险事件发生的概率。 - **清理历史遗留物项**:移除任何不再必要的陈旧组件及其关联属性定义等内容,确保当前环境处于最佳运行条件之下再继续后续步骤的操作流程处理动作。 - **降低复制因子**:临时性地下调 index.number_of_replicas 参数值直至最低限度(即0),以便于加快同步速度的同时也减轻整体负担程度,待恢复正常后再逐步上调回初始设定水平线以上范围之内。 ```json PUT /_all/_settings { "index": { "number_of_replicas": 0 } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

1024点线面

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值