1、说明
集群本来有三个节点,但是异常情况导致两个节点安装es的磁盘丢失了,之后恢复了磁盘,然后恢复集群,恢复集群我是把好的es的整个目录拷贝到刚恢复的节点上,然后修改配置文件。
好的节点的配置文件如下所示:
$ egrep -v "^#|^$" elasticsearch.yml
cluster.name: elasticsearch
node.name: "node 14.69"
bootstrap.mlockall: true
network.host: 192.168.14.69
discovery.zen.minimum_master_nodes: 1
discovery.zen.ping.timeout: 60s
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["192.168.14.40","192.168.14.177","192.168.14.69"]
拷贝后修改刚恢复的两个节点的配置文件,但是由于疏忽,忘记修改node.name这个参数,所以在集群起来后所有节点的node.name都是node 14.69,之后又新的数据进来后,就出现了 unassigned 的分片,在head插件的页面上就会在最上面出现一行 unassigned 的分片,集群的状态也变为red。
上面的情况是怎么出现的?下面分析下:
新建索引,默认是5个分片,1个副本,副本分片的主要目的就是为了故障转移,如果持有主分片的节点挂掉了,一个副本分片就会晋升为主分片的角色。
副本分片和主分片是不能放到一个节点上面的,当副本分片没有办法分配到其他的节点上,所以出现所有副本分片都unassigned得情况。因为配置失误,所以集群被识别为只有一个节点。
2、解决办法:
查看节点的状态
$ curl -XGET http://192.168.14.69:9200/_cluster/health\?pretty
{
"cluster_name" : "elasticsearch",
"status" : "red",
"timed_out" : false,
"number_of_nodes" : 3,
"number_of_data_nodes" : 3,
"active_primary_shards" : 56,
"active_shards" : 112,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 52,
"delayed_unassigned_shards" : 0,
"number_of_pending_tasks" : 0,
"number_of_in_flight_fetch" : 0
}
可以看到集群状态时red,未赋值的分片数是52个。
首先设置副本数为0
$ curl -XPUT "http://192.168.14.69:9200/_settings" -d'
{
&#