您好!
欢迎来到京东云开发者社区
登录
首页
博文
课程
大赛
工具
用户中心
开源
首页
博文
课程
大赛
工具
开源
更多
用户中心
开发者社区
>
博文
>
ElasticSearch集群灾难:别放弃,也许能再抢救一下
分享
打开微信扫码分享
点击前往QQ分享
点击前往微博分享
点击复制链接
ElasticSearch集群灾难:别放弃,也许能再抢救一下
ya****
2024-01-14
IP归属:北京
165浏览
# 1 前言 Elasticsearch作为一个分布式搜索引擎,自身是高可用的;但也架不住一些特殊情况的发生,如: * 集群超过半数的master节点丢失,ES的节点无法形成一个集群,进而导致集群不可用; * 索引shard的文件损坏,分片无法被正常恢复,进而导致索引无法正常提供服务 * 本地盘节点,多数据节点故障,旧节点无法再次加入集群,数据丢失 针对上述的情况,今天来聊一聊相关的解决方案。 # 2 基础知识 ## 2.1 集群经典架构 在聊解决方案之前,首先来看一看ES集群层面的基本知识,es的集群组成通常如图1-1所示![es集群角色.png](https://s3.cn-north-1.jdcloud-oss.com/shendengbucket1/2024-01-06-15-270pb9YSxO96kLhga.png) <center>图 1-1 es常用集群架构</center> 如图1-1所示,为生产环境es集群的经典架构,主要由专有主节点、专有协调节点和数据节点组成: * **专有主节点([Master-eligible node](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#master-node))**: 具有master角色的节点,这使其有资格被选为主节点,只存储集群元信息包含cluster、index、shard级别的元数据;该种角色节点被选举为master之后,将作为整个ES集群的大脑,负责维护集群层面的元信息,创建删除索引等工作。该种节点的个数必须为奇数,通常我们固定为3个,如果该类节点丢失半数,es集群将无法维持es节点形成一个集群。 * **专有协调节点(网关节点)**: 该种节点不具有任何角色,仅仅用来处理es请求;比如(1)将写请求的数据归类转发到数据所属的节点(2)查询请求的二次聚合计算。通常我们也会给该类节点保留[ingest角色](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#node-ingest-node) ,ingest的主要作用是对数据进行预处理;比如:字段重命名、给数据文档打上指纹和清洗数据等功能主要通过[pipeline能力](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/pipeline.html)进行处理 * **数据节点([Data node](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#data-node))**: 存储数据和集群元信息,执行与数据相关的操作,如CRUD、搜索和聚合。在数据节点上打上不同的属性,可以使其成为hot、warm、cold数据节点,在es7.9版本之后配置略有不同,但是原理基本不变。 如果没有显示设置节点角色,es的每个节点都会含有以上三种角色。除此之后还有[Remote-eligible node](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#remote-node) 、[ml-node](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#ml-node)和[Transform nodes](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/modules-node.html#transform-node)等角色需要显示的配置,节点才会有该角色。 ## 2.2 集群元信息 集群完全启动主要包含选举主节点、元信息、主分片、数据恢复等重要阶段;如图2-1所示[1]。 ![5211704611687_.pic.jpg](https://s3.cn-north-1.jdcloud-oss.com/shendengbucket1/2024-01-07-15-22jRx48QjPfQUT8WnF.jpg) <center>图 2-1 es集群启动流程 </center> 主节点选举的过程,不是本文的重点,而是集群元信息的选举。被选举出的master和集群元信息新旧程度没有关系;master节点被选举出来之后,它所要完成的第一个任务,即是选举集群元信息。 (1)Master选举成功之后,判断其持有的集群状态中是否存在STATE\_NOT\_RECOVERED\_BLOCK,如果不存在,则说明元数据已 经恢复,跳过gateway恢复过程,否则等待。`org.elasticsearch.gateway.GatewayService#clusterChanged ` ``` //跳过元数据恢复 if (state.blocks().hasGlobalBlock(STATE_NOT_RECOVERED_BLOCK) == false) { // already recovered return; } //此处省略部分代码。 //进入gateway恢复过程 performStateRecovery(enforceRecoverAfterTime, reason); ``` (2)Master从各个节点主动获取元数据信息。`org.elasticsearch.gateway.Gateway#performStateRecovery` ```` # 获取元信息核心代码 final String[] nodesIds = clusterService.state().nodes().getMasterNodes().keys().toArray(String.class); logger.trace("performing state recovery from {}", Arrays.toString(nodesIds)); final TransportNodesListGatewayMetaState.NodesGatewayMetaState nodesState = listGatewayMetaState.list(nodesIds, null).actionGet(); ```` (3)从获取的元数据信息中选择版本号最大的作为最新元数据;元信息包括集群级、索引级。 ``` ## org.elasticsearch.gateway.Gateway#performStateRecovery public void performStateRecovery(final GatewayStateRecoveredListener listener) throws GatewayException { # 省略若干行代码 ## 进入allocation阶段; ## final Gateway.GatewayStateRecoveredListener recoveryListener = new GatewayRecoveryListener(); ## listener为 GatewayStateRecoveredListener listener.onSuccess(builder.build()); } ``` (4)两者确定之后,调用allocation模块的reroute,对未分配 的分片执行分配,主分片分配过程中会异步获取各个shard级别元数据。 ``` #主要实现方法为如下方法 #org.elasticsearch.gateway.GatewayService.GatewayRecoveryListener#onSuccess ## 主要工作是构建集群状态(ClusterState),其中的内容路由表 依赖allocation模块协助完成,调用 allocationService.reroute 进 入下一阶段:异步执行分片层元数据的恢复,以及分片分配。updateTask线程结束. ``` **ES中存储的数据**:(1)state元数据信息;(2)index Lucene生成的索引文件;(3)translog事务日志。 **元数据信息**: 1. nodes/0/_state/*.st,集群层面元信息MetaData(clusterUUID 、 settings 、templates等); 2. nodes/0/indices/{index_uuid}/_state/*.st,索引层面元信息IndexMetaData( numberOfShards 、mappings等); 3. nodes/0/indices/{index_uuid}/0/_state/*.st,分片层面元信息ShardStateMetaData(version 、indexUUID、primary等)。 上述信息被持久化到磁盘:持久化的state不包括某个分片存在于哪个节点这种内容路由信息,集群完全重启时,依靠gateway的recovery过程重建RoutingTable和RoutingNode。当读取某个文档时, 根据路由算法确定目的分片后,再从RoutingTable中查找分片位于哪个节点,然后将请求转发到目的节点[1]。 >⚠️ 注意:在es7.0.0之后es的元信息存储方式发生变化; > es7.0.0之后元信息存储改使用lucene的方式存储,见[pr50928 Move metadata storage to Lucene](https://github.com/elastic/elasticsearch/pull/50928)) 7.10.2 专有主节点,集群元数据 ``` ./ |-- _state | |-- _39h.cfe | |-- _39h.cfs | |-- _39h.si | |-- node-0.st | |-- segments_50d | `-- write.lock `-- node.lock ``` 6.8.13 专有主节点,集群元数据 ``` ./ |-- _state | |-- global-230.st | `-- node-2.st |-- indices | |-- -hiy4JnoRfqUJHTJoNUt4Q | | `-- _state | | `-- state-4.st | `-- ylJKVlqISGOi8EkpxHE_2A | `-- _state | `-- state-6.st `-- node.lock ``` # 3 灾难场景与处理方法 ## 3.1 master节点丢失 > ⚠️ 注意本文所述的master节点个数,假设前提均为3个 ### 场景1 master节点丢失过半 master节点是控制整个集群;当该种节点角色丢失过半,由于集群中投票节点永远不可能达到quorum无法选主,将无法维持es节点形成一个集群;虽然集群无法形成一个集群,但所仍幸master-eligible节点存活,我们可以使用如下手段进行处理。 #### es7.0.0版本之前 1 修改剩余节点的elasticsearch.yaml配置如下,修改quorum的个数,然后启动剩余的节点,形成一个新的集群; ``` discovery.zen.minimum_master_nodes: 1 discovery.zen.ping.unicast.hosts: - masters-0 ``` 2 重建补充之前丢失的master-eligible节点,加入集群之后. 3 将集群配置修改为旧的配置,再逐一重启下集群中的节点,先从master-eligible开始. #### es7.0.0(包含)版本之后. 在es7.0.0版本之后,由于es修改集群的启动配置,新增配置[discovery.seed_hosts](https://www.elastic.co/guide/en/elasticsearch/reference/7.0/discovery-settings.html#unicast.hosts) 和 [cluster.initial_master_nodes](https://www.elastic.co/guide/en/elasticsearch/reference/7.0/discovery-settings.html#initial_master_nodes);es集群第一次启动时称为bootstrap,该过程将配置文件中的cluster.initial\_master\_node作为初始的投票节点[Voting configurations](https://www.elastic.co/guide/en/elasticsearch/reference/7.9/modules-discovery-voting.html),投票节点具有选举master和commit cluster state的权利,超过半数以上同意即投票成功。如果在集群健康的场景下,我们需要下线超过半数的master-eligible;则必须首先使用投票配置排除API从投票配置中排除受影响的节点。 ``` POST _cluster/voting_config_exclusions?node_names={node_names} POST _cluster/voting_config_exclusions?node_ids={node_ids} DELETE _cluster/voting_config_exclusions ``` 但是如果丢失的master节点超过半数,则可以使用新的集群处理工具elasticsearch-node unsafe-bootstrap [pr37696](https://github.com/elastic/elasticsearch/pull/37696) 和elasticsearch-node detach-cluster [pr37979](https://github.com/elastic/elasticsearch/pull/37979) 面对丢失半数master-eligible,es7.0.0(包含)版本之后的处理步骤如下: 1 使用`bin/elasticsearch-node unsafe-bootstrap`命令让唯一主节点以不安全的方式改写投票节点,就像重新进行bootstrap一样,自己使用持久化的cluster state形成一个新集群 2 其他数据节点无法加入新集群因为UUID不同(es使用UUID作为节点和集群的唯一表示,每个节点都会持久化当前集群的UUID),使用`bin/elasticsearch-node detach-cluster`命令让节点离开之前的集群 3 启动数据节点和新的master-eligible节点(如下补充两个新的master-eligible),他会加入新集群中 ``` cluster.initial_master_nodes: - {master-0} - {new-master-1} - {new-master-2} discovery.seed_hosts: - {master-ip-0} - {new-master-ip-1} - {new-master-ip-2} ``` ### 场景2 master节点全部丢失 #### es7.0.0版本之前 1 关闭 security 功能(如果开启了, 最好先关闭security插件功能): 1.1 因为新启动的master节点, 没有数据节点(如果只配置了一个master的角色), security插件的初始化无法完成, 各类接口不好调用 1.2 如果给新启动的master节点, 配置了master and data角色, 则security插件会初始化成功. 会插入index, 但是这个index会和原来的data节点上保存的冲突. 不知道怎么解. elastic官方[xpack-security](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/configuring-security.html);关闭鉴权:`xpack.security.enabled:false` 2 启动足够的新master-eligible节点形成一个新集群. ``` discovery.zen.minimum_master_nodes: 2 discovery.zen.ping.unicast.hosts: - {new-masters-1} - {new-masters-2} - {new-masters-3} ``` 3 修改数据节点的为新master的地址,并且删除掉节点上的_state(因为新集群的cluster UUID不一致),同上 4 启动数据节点,数据被恢复加入到集群 #### es7.0.0(包含)版本之后 已经没有cluster state了,唯一的希望是数据节点上的index数据;恢复方式借助[elasticsearch-node](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/node-tool.html) 工具 1 关闭security功能(如果开启了, 最好先关闭security插件功能),原因同上 2 启动足够的新master-eligible节点形成一个新集群 ``` cluster.initial_master_nodes: - {new-master-0} - {new-master-1} - {new-master-2} discovery.seed_hosts: - {new-master-ip-0} - {new-master-ip-1} - {new-master-ip-2} ``` 3 `bin/elasticsearch-node detach-cluster`命令让数据节点离开之前的集群 ``` ./bin/elasticsearch-node detach-cluster ------------------------------------------------------------------------ WARNING: Elasticsearch MUST be stopped before running this tool. ------------------------------------------------------------------------ You should only run this tool if you have permanently lost all of the master-eligible nodes in this cluster and you cannot restore the cluster from a snapshot, or you have already unsafely bootstrapped a new cluster by running `elasticsearch-node unsafe-bootstrap` on a master-eligible node that belonged to the same cluster as this node. This tool can cause arbitrary data loss and its use should be your last resort. Do you want to proceed? Confirm [y/N] y Node was successfully detached from the cluster ``` 4 [查询dangling索引](https://www.elastic.co/guide/en/elasticsearch/reference/7.9/dangling-indices-list.html),`GET /_dangling`, 改api 引入es7.9版本于 [pr58176](https://github.com/elastic/elasticsearch/pull/58176) 5 启动数据节点并使用[Import dangling indexAPI](https://www.elastic.co/guide/en/elasticsearch/reference/7.9/dangling-index-import.html)将index数据import到cluster state中(官方推荐,es7.9版本之后). 或者 配置`gateway.auto_import_dangling_indices: true`引入于es7.6版本[pr49174](https://github.com/elastic/elasticsearch/pull/49174)(es7.6.0-7.9.0可用该配置,在7.6版本之前不需要配置默认加载dangling索引)并启动数据节点 ``` POST /_dangling/{index-uuid}?accept_data_loss=true ``` 6 导入完成之后,索引recovery之后即可进行读写 >>注意 > > **Q1**: 为什么7.6.0之后需要配置,才能处理悬空索引(dangling index)才能让数据加入新集群,7.6.0之后没有悬空索引吗? **A1**: 其实也是有的,只不过在es2版本将配置移除(对应[pr10016](https://github.com/elastic/elasticsearch/pull/10016)),默认自动加载dangling index(es2.0-es7.6); 具体实现于`org.elasticsearch.gateway.DanglingIndicesState#processDanglingIndices` [es7.6再次引入dangling配置](https://github.com/elastic/elasticsearch/pull/49174),es7.9引入[dangling index rest api](https://www.elastic.co/guide/en/elasticsearch/reference/7.9/dangling-index-import.html) >**Q2**: 什么是 dangling 索引? **A2**: 当一个节点加入集群时,如果发现存储在其本地数据目录中的任何分片(shard)不存在于集群中,将认为这些分片属于“悬空”索引。悬空索引产生的场景(1)在 Elasticsearch 节点离线时删除了多个`cluster.indices.tombstones.size` 索引,节点再次加入集群集群 (2)master节点丢失,数据节点重新加入新的集群等 ## 3.2 数据节点故障 数据节点灾难故障之后,无法恢复加入集群;可将数据物理复制到新的节点,然后按照master节点丢失的方式,将数据节点加入集群即可。 ## 3.3 分片不能够自动分配 查看索引分片为什么无法分配,`POST _cluster/allocation/explain` ### 3.3.1 分片正常 如果分片数据正常,那么我们可以尝试重试分配分片任务;`POST _cluster/reroute?retry_failed` 获取索引的shard在那些节点上,使用[_shard_stores api](https://www.elastic.co/guide/en/elasticsearch/reference/7.0/indices-shards-stores.html) ``` GET indexName1/_shard_stores ``` 使用[cluster reroute](https://www.elastic.co/guide/en/elasticsearch/reference/7.10/cluster-reroute.html)重新分配 ``` # 尝试分配副本 POST /_cluster/reroute { "commands": [ { "allocate_replica": { "index": "{indexName1}", "shard": {shardId}, "node": "{nodes-9}" } } ] } ``` 如果是主分片无法分配,可以尝试如下命令进行分配 ``` POST /_cluster/reroute { "commands": [ { "allocate_stale_primary": { "index": "{indexName1}", "shard": {shardId}, "node": {nodes-9}, "accept_data_loss": true } } ] } ``` 如果主分片确实是无法分配,只能选择丢失该分片的数据,分配一个空的主分片 ``` POST /_cluster/reroute { "commands": [ { "allocate_empty_primary": { "index": "{indexName1}", "shard": {shardId}, "node": "{nodes-9}", "accept_data_loss": true } } ] } ``` es5.0版本之前参考; https://www.elastic.co/guide/en/elasticsearch/reference/2.4/cluster-reroute.html ### 3.3.2 分片数据损坏 #### shard corrupted 错误参考[Corrupted elastic index](https://discuss.elastic.co/t/corrupted-elastic-index/135932) [shard-tool](https://www.elastic.co/guide/en/elasticsearch/reference/6.5/shard-tool.html) es6.5版本引入,该操作需要stop节点 elasticsearch-shard 工具es6.5版本引入 [pr33848](https://github.com/elastic/elasticsearch/pull/33848) elasticsearch-shard remove-corrupted-data 的 es7.0.0引入 [pr32281](https://github.com/elastic/elasticsearch/pull/32281) ``` bin/elasticsearch-shard remove-corrupted-data --index {indexName} --shard-id {shardId} ## 示列:修复索引twitter的0号分片 bin/elasticsearch-shard remove-corrupted-data --index twitter --shard-id 0 ## 如果--index和--shard-id换成索引分片目录参数--dir,则直接修复data和translog bin/elasticsearch-shard remove-corrupted-data --dir /var/lib/elasticsearchdata/nodes/0/indices/P45vf_YQRhqjfwLMUvSqDw/0 ``` 修复完成之后,启动节点,如果分片不能够自动分配,使用reroute命令进行shard分片 ``` POST /_cluster/reroute{ "commands":[ { "allocate_stale_primary":{ "index":"index42", "shard":0, "node":"node-1", "accept_data_loss":false } } ]} ``` 5版本之前可以通过索引级别配置,进行修复 index.shard.check\_on\_startup: fix ,该配置在es6.5版本移除 [pr32279](https://github.com/elastic/elasticsearch/pull/32279) #### translog 损坏 修复translog操作,需要stop节点。 修复工具 elasticsearch-translog es5.0.0 引入[pr19342](https://github.com/elastic/elasticsearch/pull/19342) elasticsearch-shard remove-corrupted-data translog的 es7.4.1开始引入,[pr47866](https://github.com/elastic/elasticsearch/pull/47866)elasticsearch-shard 可以直接清除translog,也可以像上文中指定--dir那样进行修复translog ``` bin/elasticsearch-shard remove-corrupted-data --index <indexName> --shard-id <shardId> --truncate-clean-translog ## 示列:修复索引twitter的0号分片 bin/elasticsearch-shard remove-corrupted-data --index twitter --shard-id 0 --truncate-clean-translog ``` 清除完成之后使用cluster reroute 进行恢复 5版本之前可以通过索引级别配置,进行修复 index.shard.check\_on\_startup: fix ,该配置在es6.5版本移除 [pr32279](https://github.com/elastic/elasticsearch/pull/32279) #### `segments_N文件丢失` 该种场景的文件损坏是最难修复的;官方还未提供工具,我们正在自己调研中 # 4 参考 [1] [elasticsearch集群启动流程](https://www.easyice.cn/archives/261) [2]https://www.elastic.co/guide/en/elasticsearch/reference/7.9/dangling-indices-list.html [3]https://www.elastic.co/guide/en/elasticsearch/reference/7.10/node-tool.html
上一篇:画眉(京东科技设计稿转代码平台)介绍
下一篇:Spark SQL五大关联策略
ya****
文章数
3
阅读量
223
作者其他文章
01
京东ES支持ZSTD压缩算法上线了:高性能,低成本
1 前言在2022年10月份《ElasticSearch降本增效常见的方法》一文中曾提到过zstd压缩算法[1],一步一个脚印我们终于在京东ES上线支持了zstd;我觉得促使目标完成主要以下几点原因: 1. Elastic官方原因:zstd压缩算法没有在Elastic官方的开发计划中;Elastic的licenes变更,很多功能使用受限2. ES产品竞争力:提升
01
京东ES支持ZSTD压缩算法上线了:高性能,低成本
1 前言在2022年10月份《ElasticSearch降本增效常见的方法》一文中曾提到过zstd压缩算法[1],一步一个脚印我们终于在京东ES上线支持了zstd;我觉得促使目标完成主要以下几点原因: 1. Elastic官方原因:zstd压缩算法没有在Elastic官方的开发计划中;Elastic的licenes变更,很多功能使用受限2. ES产品竞争力:提升
01
ElasticSearch集群灾难:别放弃,也许能再抢救一下
1 前言Elasticsearch作为一个分布式搜索引擎,自身是高可用的;但也架不住一些特殊情况的发生,如:集群超过半数的master节点丢失,ES的节点无法形成一个集群,进而导致集群不可用;索引shard的文件损坏,分片无法被正常恢复,进而导致索引无法正常提供服务本地盘节点,多数据节点故障,旧节点无法再次加入集群,数据丢失针对上述的情况,今天来聊一聊相关的解决方案。2 基础知识2.1 集群经典架
ya****
文章数
3
阅读量
223
作者其他文章
01
京东ES支持ZSTD压缩算法上线了:高性能,低成本
01
京东ES支持ZSTD压缩算法上线了:高性能,低成本
添加企业微信
获取1V1专业服务
扫码关注
京东云开发者公众号