谁再问elasticsearch集群Red怎么办?把这篇笔记给他

人盡茶涼 提交于 2020-01-08 10:16:36

【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>>

前言

可能你经历过这些Red.

file

。。。等等

那ES的Red是神么意思?

这里说的red,是指es集群的状态,一共有三种,green、red、yellow。具体含义:

file

冷静分析

从上图可知,集群red是由于有主分片不可用,这种情况一般是由于节点宕机。

有什么影响呢?

至少一个主分片(以及它的全部副本)都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。

此时我们可以执行相关的命令进行状态检查。

集群节点是否都存在、查看集群状态。
curl -uelastic:pwd  -XGET "http://ip:9200/_cluster/health?pretty"

file

  • active_shards 是涵盖了所有索引的所有分片的汇总值,其中包括副本分片。

  • relocating_shards 显示当前正在从一个节点迁往其他节点的分片的数量。通常来说应该是 0,不过在 Elasticsearch 发现集群不太均衡时,该值会上涨。比如说:添加了一个新节点,或者下线了一个节点。

  • initializing_shards 显示的是刚刚创建的分片的个数。比如,当你刚创建第一个索引,分片都会短暂的处于 initializing 状态,分片不应该长期停留在 initializing 状态。你还可能在节点刚重启的时候看到 initializing 分片:当分片从磁盘上加载后,它们会从 initializing 状态开始。所以这一般是临时状态。

  • unassigned_shards 是已经在集群状态中存在的分片,但是实际在集群里又找不着。最常见的体现在副本上。比如,我有两个es节点,索引设置分片数量为 10, 3 副本,那么在集群上,由于灾备原则,主分片和其对应副本不能同时在一个节点上,es无法找到其他节点来存放第三个副本的分片,所以就会有 10 个未分配副本分片。如果你的集群是 red 状态,也会长期保有未分配分片(因为缺少主分片)。

file

unassigned_shards原因1

  • 上面说了一种造成 unassigned_shards的原因,就是副本太多,节点太少,es无法完成分片。

  • 举一反三!由于索引的副本是可以动态修改的,那么,如果在修改时分配的副本数大于节点数目,那么肯定会有分片是这个状态。

  • 这种情况的解决办法有两种:

  • 1、是动态调整一下副本数量。

  • 2、新加入一个节点来平衡。

unassigned还有其他原因?

  • 目前集群爆红,但是所有节点都还在,有点诡异,从集群状态看,一共是两个分片有问题,一个正在初始化,一个是unassigned。确定了故障范围后,我们再来从索引层面、分片层面深入的分析具体原因把。

file

file

索引层面分析

再执行

curl -uelastic:pwd  -XGET "http://ip:9200/_cluster/health?pretty&level=indices"

没错,还是这个api,不过值得注意的是level=indices,想必读者已经心领神会。 这个api返回的是一个格式化后的json,如果太长,推荐输出到一个文本里面看。

file

从返回的信息中,我们可以看到,01-04索引目前状态为red,它有2个分片,0个副本,有一个分片正在初始化,从这个数据可以看出,受影响的是主分片,想到这里,感到慌不择路。

分片层面分析

少侠,莫慌!

知道了索引层面的故障信息,我们继续深究,看看分片层面。

curl -uelastic:pwd  -XGET "http://ip:9200/_cluster/health?level=shards"

当然,重点还是level=shards,显示如下:

file

至此,我们可以得到更多的线索:

  • 索引名:xxx-01-04。
  • 分片数量:2。
  • 副本数:0。
  • 有问题的分片号:0。并且是主分片。
  • 分片状态:initializing。说明正在初始化,自我恢复中。

既然是在恢复,那找恢复相关的api,看看。

curl -u elastic:pwd -XGET http://ip:9200/索引名/_recovery?pretty=true

file

从上图可以看到,花费了14.1个小时,从translog中恢复!目前进度很是堪忧。 配合kibana看一下: file

插播一下,translog的知识

  • 我们把数据写到磁盘后,还要调用fsync才能把数据刷到磁盘中,如果不这样做在系统掉电的时候就会导致数据丢失,这个原理相信大家都清楚,elasticsearch为了高可靠性必须把所有的修改持久化到磁盘中。

  • 我们的数据先写入到buffer里面,在buffer里面的数据时搜索不到的,同时将数据写入到translog日志文件之中。如果buffer快满了,或是一段时间之后,就会将buffer数据refresh到一个新的OS cache之中。

  • translog的作用:在执行commit之前,所有的而数据都是停留在buffer或OS cache之中,无论buffer或OS cache都是内存, 一旦这台机器死了,内存的数据就会丢失,所以需要将数据对应的操作写入一个专门的日志文件之中。

  • 一旦机器出现宕机,再次重启的时候,es会主动的读取translog之中的日志文件数据,恢复到内存buffer和OS cache之中。 整个commit过程就叫做一个flush操作

  • 其实translog的数据也是先写入到OS cache之中的,默认每隔5秒之中将数据刷新到硬盘中去,也就是说, 可能有5秒的数据仅仅停留在buffer或者translog文件的OS cache中,如果此时机器挂了, 会丢失5秒的数据,但是这样的性能比较好,我们也可以将每次的操作都必须是直接fsync到磁盘,但是性能会比较差。

上述摘录于互联网,写得清晰明了,可以参考一下,分析看了日志也没有找到其他有用的信息,由于是历史索引,就将其删除掉了,虽然没有定位到根本原因,不过记录一下排查过程总是好的。

剩下的unassigned分片

  • 解决了一个问题,那么还剩下一个分片是未分配的,还是从索引层面和分片层面查询检查,发现同样是0号主分片出问题。

  • 尝试手动分配

curl -uelastic:pwd -XPOST 'http://ip:9200/_cluster/reroute' -H"Content-Type:application/json" -d '{
        "commands" : [ {
              "allocate_stale_primary" : {
                  "index" : "B_2020-01-05",
                  "shard" : 0,
                  "node" : "SL8u8zKESy6rSHjHO0jEvA"
               
              }
            }
        ]
    }'

报错:

No data for shard [0] of index [B_2020-01-05] found on node [SL8u8zKESy6rSHjHO0jEvA]"},"status":400}
  • 尝试手动分配失败后,更换思路。摆脱掉各种复杂的查询API,使用es为我们提供的一个Explain API,它会解释为什么分片没有分配,解决问题之前,先诊断诊断。
curl -uelastic:pwd -XGET "http://ip:9200/_cluster/allocation/explain" -H"Content-Type:application/json" -d '{
  "index": "B_2020-01-05",
  "shard": 0,
  "primary": true
}'

file

  • 看上述错误,分片被锁住了,尝试分配,但是被拒绝,手动分配时,可以指定"accept_data_loss" : true。但这样会导致数据完全丢失。

  • 这种情况一般出现在有结点短暂离开集群,然后马上重新加入,并且有线程正在对某个shard做bulk或者scroll等长时间的写入操作。等结点重新加入集群的时候,由于shard lock没有释放,master无法allocate这个shard。 通常/_cluster/reroute?retry_failed=true可以解决问题,如果按照你说的依然无法解决,可能还有其他原因导致锁住该shard的线程长时间操作该shard无法释放锁(长时间GC?)。 如果retry_failed无法解决问题,可以尝试一下allocate_stale_primary,前提是需要知道这个shard的primary在哪个结点上。实在解决不了,又不想丢数据,还可以重启一下该结点,内存锁应该可以释放。

执行集群reroute命令:

curl -XPOST "http://ip:9200/_cluster/reroute?retry_failed=true"
  • 再看分片状态:

file

  • 此时集群已经恢复Green。大功告成。

总结

一、遇到集群Red时,我们可以从如下方法排查:

  • 集群层面:/_cluster/health。
  • 索引层面:/_cluster/health?pretty&level=indices。
  • 分片层面:/_cluster/health?pretty&level=shards。
  • 看恢复情况:/_recovery?pretty。

二、有unassigned分片的排查思路

  • _cluster/allocation/explain,先诊断。
  • /_cluster/reroute尝试重新分配。

三、数据重放

  • 如果实在恢复不了,那只能索引重建了。提供一种思路:

先新建备份索引

curl -XPUT ‘http://xxxx:9200/a_index_copy/‘ -d ‘{
“settings”:{
		“index”:{
				“number_of_shards”:3,
				“number_of_replicas”:2
			}
	}
}

通过reindex,将目前可用的数据导入: POST _reindex { "source": { "index": "a_index" }, "dest": { "index": "a_index_copy", "op_type": "create" } }

删除a_index索引,这个必须要先做,否则别名无法添加. curl -XDELETE 'http://xxxx:9200/a_index'

创建a_index_copy索引

curl -XPUT ‘http://xxxx:9200/a_index_copy/‘ -d ‘{
“settings”:{
				“index”:{
				“number_of_shards”:3,
				“number_of_replicas”:2
			}
	}
}

通过reindex api将a_index数据copy到a_index_copy。

POST _reindex
{
"source": {
			"index": "a_index"
			},
			"dest": {
			"index": "a_index_copy",
			"op_type": "create"
	}
}

删除a_index索引,这个必须要先做,否则别名无法添加

curl -XDELETE 'http://xxxx:9200/a_index'

给a_index_copy添加别名a_index

curl -XPOST 'http://xxxx:9200/_aliases' -d '
{
		"actions": [
			{"add": {"index": "a_index_copy", "alias": "a_index"}}
	]
}'

四、translog总结

  • translog在节点有问题时,能够帮助阻止数据的丢失

设计目的:

1、帮助节点从失败从快速恢复。

2、辅助flush。避免在flush过程中数据丢失。

以上就是这篇笔记的所有内容,希望能帮助到你。

欢迎来公众号【侠梦的开发笔记】 一起交流进步

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!