如果让你自己设计一个分布式架构的中间件系统,该怎么做?

开发 架构
每次Master收到一个请求,在内存里更新元数据之后,就需要生成一条元数据的更新日志,把这个更新日志需要写入到一个内存缓冲里去。

​这篇文章,给大家来聊一个生产级的中间件系统的架构设计实践,希望给对中间件系统感兴趣的同学一点启发。

1、Master-Slave架构

这个中间件系统的本质是希望能够用分布式的方式来处理一些数据,但是具体的作用涉及到核心技术,所以这里不能直接说明。

但是他的核心思想,就是把数据分发到很多台机器上来处理,然后需要有一台机器来控制N多台机器的分布式处理,大概如下图所示。

那么既然是分布式的处理,就肯定涉及到在Master中要维护这个集群的一些核心元数据。

比如说数据的分发处理是如何调度的,处理的具体过程现在什么进度了,还有就是对集群里存放数据进行描述的一些核心元数据。

这些核心元数据肯定会不断的频繁的修改,大家此时可以想,无论你是基于外部的文件还是数据库,或者是zookeeper来存放这些元数据的话,其实都会导致他的元数据更新性能降低,因为要访问外部依赖。

何况这种复杂的元数据其实还不一定能通过zk或者数据库来存放,因为他可能是非格式化的。

所以这里一个核心的设计,就是将核心元数据直接存放在Master的内存里,这样可以保证高并发更新元数据的时候,他的性能是极高的,而且直接基于内存来提供对外的更新服务。

如果Master部署在高配置物理机上,比如32核128GB的那种,每秒支持10万+的请求都没问题。

2、异步日志持久化机制

但是这里有一个问题,假如说Master进程重启,或者是突然宕机了,那么内存里的数据不就丢失了么?

对,所以针对这个问题,既然已经否决掉了基于外部存储来写入元数据,那么这里就可以采取异步持久化日志的机制,来通过异步化的方式把元数据的更新日志写入磁盘文件。

每次Master收到一个请求,在内存里更新元数据之后,就需要生成一条元数据的更新日志,把这个更新日志需要写入到一个内存缓冲里去。

然后等内存缓冲满了之后,由一个后台线程把这里的数据刷新到磁盘上去,如下图。

肯定会有人说,那如果一条更新日志刚写入缓冲区,结果Master宕机了,此时不是还是会丢失少量数据吗?因为还没来得及刷入磁盘。

没错啊,这个为了保证高并发请求都是由内存来处理的,你必须得用异步持久化磁盘的模式,所以必然要容忍极端宕机情况下,可能丢失比如几秒钟的数据。

那么如果是正常的Master重启呢?

那简单,必须先把日志缓冲区清空刷入磁盘,然后才能正常重启Master,保证数据都在磁盘上不会丢失。

接着重启的时候,从磁盘上读取更新日志,每一条都依次回访到内存里,恢复出来核心元数据即可。

3、检查点机制:定时持久化全量数据

但是这里又有一个问题了,那个磁盘上的日志文件越来越大,因为元数据不断的在更新,不断在产生最新的变更日志写入磁盘文件。

那么系统运行一段时间以后,每次重启都需要从磁盘读取历史全部日志,一条一条回放到内存来恢复核心元数据吗?

不可能,所以这里一定要配合引入检查点机制。

也就是说,每隔一段时间,就需要开启一个后台线程,把内存里的全部核心元数据序列化后写入磁盘上的元数据文件,作为这个时间的一个快照文件,同时清空掉日志文件,这个叫做检查点操作。

下次重启,只要把元数据文件读取出来直接反序列化后方入内存,然后把上次检查点之后的变更日志从日志文件里读出来回放到内存里,就可以恢复出来完整的元数据了。

这种方式,可以让Master重启很快,因为大部分数据都是在检查点写入的那个元数据文件里。

整个过程,如下图所示:

4、引入检查点节点

但是这个时候又有一个问题了。

大家可以想一下,Master内存里的元数据需要高并发的被人访问和修改,同时每隔一段时间还要检查点写入磁盘。

那么在检查点过程中,是不是需要把内存数据全部加锁,不允许别人修改?

在加锁的时候,把不会变动的数据写入磁盘文件中,但是这个过程是很慢的,意味着此时别人高并发的写入操作都需要等待核心元数据的锁。

因为此时别人锁住了,你无法加锁去写数据进去,这会导致系统在几秒内出现卡顿无法响应请求的问题。

所以此时需要在架构设计里引入一个检查点节点,专门负责同步Master的变更日志。

然后在自己内存里维护一份一模一样的核心元数据,每隔一段时间由检查点节点来负责将内存数据写入磁盘,接着上传发送给Master。

这样做,就不需要Master自己执行检查点的时候对自己内存数据进行加锁了,如下图。

在这样的一个架构下,对Master来说,他只需要一个后台线程负责接收Checkpoint进程定时传送过来的元数据文件快照然后写入本地磁盘就可以了,完全规避掉了对自己内存元数据的锁冲突的问题。

5、总结 & 思考

总结一下这个架构设计,其实就是Master基于内存维护元数据,这样一台物理机可以支撑每秒10万+的高并发请求。

每次元数据出现更新,写一条日志到内存缓冲区,然后后台线程去刷新日志到日志文件里去,同时需要发送一条日志到Checkpoint节点去。

Checkpoint节点会在自己内存里维护一份一模一样的元数据,然后每隔一段时间执行checkpoint检查点写一份元数据文件快照。

接着上传给Master节点后清空掉他的日志文件。然后Master节点每次重启的时候直接读取本地元数据文件快照,加上回放上次checkpoint之后的日志即可。

这里可能大家会提几个问题,比如说Master节点突然宕机会如何?

那很简单,直接影响就是他内存缓冲里的那些日志丢了,导致少量数据丢失,这个在我们的场景下可以容忍。

如果Checkpoint节点宕机怎么办?

那不要紧,因为他之前上传过元数据文件的快照,所以对Master而言最多就是无法同步数据过去。

但是Master重启,还是可以读取最近一次的元数据快照,然后回放日志即可。

等Checkpoint节点恢复了,可以继续接着上一次同步日志,然后继续执行checkpoint操作。​

责任编辑:武晓燕 来源: 今日头条
相关推荐

2021-01-14 05:23:32

高并发消息中间件

2024-08-28 08:38:51

2019-09-10 09:25:27

分布式系统Elasticsear

2017-08-17 09:18:29

分布式存储面试

2019-07-08 11:09:09

分布式系统Elasticsear

2022-09-03 18:00:05

消息中间件MQ

2024-05-07 07:58:10

数据架构大数据中间件架构

2021-11-14 16:07:35

中间件阿里Seata

2019-01-28 11:46:53

架构运维技术

2016-09-30 10:13:07

分布式爬虫系统

2022-11-11 08:19:03

redis分布式

2017-11-30 08:56:14

数据库中间件架构师

2018-09-03 10:49:09

2023-01-13 18:04:03

面试题消息中间件

2017-11-27 06:01:37

数据库中间件中间层

2018-09-06 22:49:31

分布式架构服务器

2022-09-21 16:09:28

消息中间件

2014-06-20 09:18:54

Dustjs中间件

2017-12-04 09:00:00

金融开源软件分布式消息中间件

2023-04-26 07:57:29

软件架构设计
点赞
收藏

51CTO技术栈公众号