分布式容错架构很难?一篇给你讲清楚

开发 架构 分布式
这篇文章,我们将用非常浅显易懂的语言,跟大家聊聊大规模分布式系统的容错架构设计。

虽然定位是有“分布式”、“容错架构”等看起来略显复杂的字眼,但是咱们还是按照老规矩:大白话 + 手绘数张彩图,逐步递进,让每个同学都能看懂这种复杂架构的设计思想。

TB 级数据放在一台机器上:难啊!

咱们就用分布式存储系统举例,来聊一下容错架构的设计。

首先,我们来瞧瞧,到底啥是分布式存储系统呢?其实特别的简单,咱们就用数据库里的一张表来举例。

比如你手头有个数据库,数据库里有一张特别大的表,里面有几十亿,甚至上百亿的数据。

更进一步说,假设这一张表的数据量多达几十个 TB,甚至上百个 TB,这时你觉得咋样?

当然是内心感到恐慌和无助了,因为如果你用 MySQL 之类的数据库,单台数据库服务器上的磁盘可能都不够放这一张表的数据!

咱们就来看看下面的这张图,来感受一下:

到底啥是分布式存储?

所以,假如你手头有一个超大的数据集,几百 TB!那你还是别考虑传统的数据库技术来存放了。

因为用一台数据库服务器可能根本都放不下,所以我们考虑一下分布式存储技术?对了!这才是解决这个问题的办法。

咱们完全可以搞多台机器嘛!比如搞 20 台机器,每台机器上就放 1/20 的数据。

举个例子,比如总共 20TB 的数据,在每台机器上只要放 1TB 就可以了,1TB 应该还好吧?每台机器都可以轻松加愉快的放下这么多数据了。

所以说,把一个超大的数据集拆分成多片,给放到多台机器上去,这就是所谓的分布式存储。

咱们再看看下面的图:

那么啥又是分布式存储系统呢?

那分布式存储系统是啥呢?分布式存储系统,当然就是负责把一个超大数据集拆分成多块,然后放到多台机器上来存储,接着统一管理这些分散在多台机器上存储的数据的一套系统。

比如说经典的 Hadoop 就是这类系统,然后 FastDFS 也是类似的。如果你可以脑洞打开,从思想本质共通的层面出发,那你会发现,其实类似 Elasticsearch、Redis Cluster 等等系统,它们的本质都是如此。

这些都是基于分布式的系统架构,把超大数据拆分成多片给你存放在多台机器上。

咱们这篇文章是从分布式系统架构层面出发,不拘泥于任何一种技术,所以姑且可以设定:这套分布式存储系统,有两种进程。

一个进程是 Master 节点,就在一台机器上,负责统一管控分散在多台机器上的数据。

另外一批进程叫做 Slave 节点,每台机器上都有一个 Slave 节点,负责管理那台机器上的数据,跟 Master 节点进行通信。

咱们看看下面的图,通过图再来直观的看看上面的描述:

天哪!某台机器宕机了咋办?

这个时候又有一个问题了,那么万一上面那 20 台机器上,其中 1 台机器宕机了咋整呢?

这就尴尬了,兄弟,这会导致本来完整的一份 20TB 的数据,***有 19TB 还在了,有 1TB 的数据就搞丢了,因为那台机器宕机了啊。

所以说你当然不能允许这种情况的发生,这个时候就必须做一个数据副本的策略。

比如说,我们完全可以给每一台机器上的那 1TB 的数据做 2 个副本的冗余,放在别的机器上,然后呢,万一说某一台机器宕机,没事啊,因为其他机器上还有它的副本。

我们来看看这种多副本冗余的架构设计图:

上面那个图里的浅蓝色的“1TB 数据 01”,代表的是 20TB 数据集中的***个 1TB 数据分片。

图中可以看到,他就有 3 个副本,分别在三台机器中都有浅蓝色的方块,代表了它的三个副本。

这样的话,一份数据就有了 3 个副本了。其他的数据也是类似。这个时候我们假设有一台机器宕机了,比如下面这台机器宕机,必然会导致“1TB 数据 01”这个数据分片的其中一个数据副本丢失。

如下图所示:

那这个时候要紧吗?不要紧,因为“1TB 数据 01”这个数据分片,它还有另外 2 个副本在存活的两台机器上呢!

所以如果有人要读取数据,完全可以从另外两台机器上随便挑一个副本来读取就可以了,数据不会丢的,不要紧张,大兄弟。

Master 节点如何感知到数据副本消失?

现在有一个问题,比如说有个兄弟要读取“1TB 数据 01”这个数据分片,那么他就会找 Master 节点,说:“你能不能告诉我“1TB 数据 01”这个数据分片人在哪里啊?在哪台机器上啊?我需要读他啊!”

我们来看看下面的图:

那么这个时候,Master 节点就需要从“1TB 数据 01”的 3 个副本里选择一个出来,告诉人家说:“兄弟,在哪台哪台机器上,有 1 个副本,你可以去那台机器上读“1TB 数据 01”的一个副本就 ok 了。”

但是现在的问题是,Master 节点此时还不知道“1TB 数据 01”的副本 3 已经丢失了,那万一 Master 节点还是通知人家去读取一个已经丢失的副本 3,肯定是不可以的。

所以,我们怎么才能让 Master 节点知道副本 3 已经丢失了呢?其实也很简单,每台机器上负责管理数据的 Slave 节点,都每隔几秒(比如说 1 秒)给 Master 节点发送一个心跳。

那么,一旦 Master 节点发现一段时间(比如说 30 秒内)没收到某个 Slave 节点发送过来的心跳,此时就会认为这个 Slave 节点所在机器宕机了,那台机器上的数据副本都丢失了,然后 Master 节点就不会告诉别人去读那个丢失的数据副本。

大家看看下面的图,一旦 Slave 节点宕机,Master 节点收不到心跳,就会认为那台机器上的副本 3 就已经丢失了,此时绝对不会让别人去读那台宕机机器上的副本 3。

那么此时,Master 节点就可以通知人家去读“1TB 数据 01”的副本 1 或者副本 2,哪个都行,因为那两个副本其实还是在的。

举个例子,比如可以通知客户端去读副本 1,此时客户端就可以找那台机器上的 Slave 节点说要读取那个副本 1。

整个过程如下图所示:

复制副本保持足够副本数量

这个时候又有另外一个问题,那就是“1TB 数据 01”这个数据分片此时只有副本 1 和副本 2 这两个副本了,这就不足够 3 个副本啊。

因为我们预设的是每个数据分片都得有 3 个副本的。大家想想,此时如何给这个数据分片增加 1 个副本呢?

很简单,Master 节点一旦感知到某台机器宕机,就能感知到某个数据分片的副本数量不足了。

此时,就会生成一个副本复制的任务,挑选另外一台机器来从有副本的机器去复制一个副本。

比如看下面的图,可以挑选第 4 台机器从第 2 台机器去复制一个副本:

但是,现在这个复制任务是有了,我们怎么让机器 4 知道呢?其实也很简单,机器 4 不是每秒都会发送一次心跳么?

当机器 4 发送心跳过去的时候,Master 节点就通过心跳响应把这个复制任务下发给机器 4,让机器 4 从机器 2 复制一个副本好了。

同样,我们来一张图,看看这个过程:

看上图,现在机器 4 上是不是又多了一个“1TB 数据 01”的副本 3?那么“1TB 数据 01”这个数据分片是不是又变成 3 个副本了?

删除多余副本

那反过来,如果说此时机器 3 突然恢复了,他上面也有一个“1TB 数据 01”的副本 3,相当于此时“1TB 数据 01”就有 4 个副本了,副本不就多余了吗?

没关系,一旦 Master 节点感知到机器 3 复活,会发现副本数量过多,此时会生成一个删除副本任务。

他会在机器 3 发送心跳的时候,下发一个删除副本的指令,让机器 3 删除自己本地多余的副本就可以了。这样,就可以保持副本数量只有 3 个。

一样的,大家来看看下面的图:

总结

好了,到这里,通过超级大白话的讲解,还有十多张图的渐进式演进说明,相信大家以前即使不了解分布式系统,都绝对能理解一个分布式系统的完整的数据容错架构是如何设计的了。

实际上,这种数据分片存储 、多副本冗余、宕机感知、自动副本迁移、多余副本删除,这套机制,对于 Hadoop、Elasticsearch 等很多系统来说,都是类似的。

所以笔者在这里强烈建议大家,一定好好吸收一下这种分布式系统、中间件系统底层数据容错架构的思想。

这样,以后学习类似的一些技术的时候,对他们的原理、思想都会感到一种似曾相识的感觉。

 

责任编辑:庞桂玉 来源: 51CTO技术栈
相关推荐

2018-12-11 09:09:10

分布式数据库事务

2017-12-17 20:17:23

NoSQLSQL数据

2018-08-13 09:20:21

NoSQLSQL数据

2021-07-07 10:28:09

分布式架构系统

2021-04-21 10:00:08

MySQL索引数据库

2019-11-25 08:25:47

ZooKeeper分布式系统负载均衡

2021-05-19 08:12:39

etcd分布式锁分布式系统

2019-05-07 11:57:26

分布式架构负载均衡

2021-10-29 11:30:31

补码二进制反码

2020-07-29 09:21:34

Docker集群部署隔离环境

2021-07-05 22:22:24

协议MQTT

2021-07-07 07:14:48

分布式ID分布式系统

2020-07-29 10:04:36

Kubernetes容器

2018-05-21 07:08:18

行为驱动开发BDD编码

2021-03-12 09:21:31

MySQL数据库逻辑架构

2019-07-07 08:18:10

MySQL索引数据库

2022-01-05 09:27:24

读扩散写扩散feed

2017-11-17 08:39:40

人工智能机器学习深度学习

2022-06-07 08:29:57

分布式文件系统服务器

2018-05-24 22:58:26

大数据分布式计算统计
点赞
收藏

51CTO技术栈公众号