es恢复集群后报错

1、说明

集群本来有三个节点,但是异常情况导致两个节点安装es的磁盘丢失了,之后恢复了磁盘,然后恢复集群,恢复集群我是把好的es的整个目录拷贝到刚恢复的节点上,然后修改配置文件。

 

好的节点的配置文件如下所示:

$ egrep -v "^#|^$" elasticsearch.yml

cluster.name: elasticsearch

node.name: "node 14.69"

bootstrap.mlockall: true

network.host: 192.168.14.69

discovery.zen.minimum_master_nodes: 1

discovery.zen.ping.timeout: 60s

discovery.zen.ping.multicast.enabled: false

discovery.zen.ping.unicast.hosts: ["192.168.14.40","192.168.14.177","192.168.14.69"]

 

拷贝后修改刚恢复的两个节点的配置文件,但是由于疏忽,忘记修改node.name这个参数,所以在集群起来后所有节点的node.name都是node 14.69,之后又新的数据进来后,就出现了 unassigned 的分片,在head插件的页面上就会在最上面出现一行 unassigned 的分片,集群的状态也变为red。

 

上面的情况是怎么出现的?下面分析下:

新建索引,默认是5个分片,1个副本,副本分片的主要目的就是为了故障转移,如果持有主分片的节点挂掉了,一个副本分片就会晋升为主分片的角色。

 

副本分片和主分片是不能放到一个节点上面的,当副本分片没有办法分配到其他的节点上,所以出现所有副本分片都unassigned得情况。因为配置失误,所以集群被识别为只有一个节点。

 

2、解决办法:

查看节点的状态

$ curl -XGET http://192.168.14.69:9200/_cluster/health\?pretty

{

  "cluster_name" : "elasticsearch",

  "status" : "red",

  "timed_out" : false,

  "number_of_nodes" : 3,

  "number_of_data_nodes" : 3,

  "active_primary_shards" : 56,

  "active_shards" : 112,

  "relocating_shards" : 0,

  "initializing_shards" : 0,

  "unassigned_shards" : 52,

  "delayed_unassigned_shards" : 0,

  "number_of_pending_tasks" : 0,

  "number_of_in_flight_fetch" : 0

}

 

可以看到集群状态时red,未赋值的分片数是52个。

 

首先设置副本数为0

$ curl -XPUT "http://192.168.14.69:9200/_settings" -d'        

{

  &#

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值