在Docker和Kubernetes上运行MongoDB微服务

运维 系统运维 MongoDB
利用Docker和Kubernetes搭建一套具有冗余备份集合的MongoDB服务,从容器对CI和CD引发的改变入手,讨论了容器技术对MongoDB带来的挑战和机会,然后实战如何部署一套稳定的MongoDB服务。

 [[169251]]

本文介绍了利用Docker和Kubernetes搭建一套具有冗余备份集合的MongoDB服务,从容器对CI和CD引发的改变入手,讨论了容器技术对MongoDB带来的挑战和机会,然后实战如何部署一套稳定的MongoDB服务,非常的干货~

介绍

想尝试在笔记本电脑上运行MongoDB么?希望通过执行一个简单的命令,然后就有一个轻量级、自组织的沙盒么?并可再通过一条命令就可以移除所有的痕迹么?

需要在多个环境中运行相同的应用程序栈?创建自己的容器镜像,使得开发、测试、操作和支持团队启动一份完全相同的环境。

容器正在改变整个软件生命周期;它覆盖了从最初的技术试验到通过开发、测试、部署和支持的概念证明。

阅读微服务:容器和编排白皮书(https://www.mongodb.com/collateral/microservices-containers-and-orchestration-explained)。

编排工具管理着多个容器如何创建、升级和高可用。编排同样管理着容器如何连接,并利用多个微服务容器创建稳定的应用服务。

丰富的功能、简单的工具、强大的API让容器和编排得到DevOps团队的青睐。DevOps工程师将它们整合到持续集成(CI)和持续交付(CD)工作流中。

本篇文章将探索在尝试运行和编排MongoDB容器时遇到的问题,并描述如何克服这些问题。

对于MongoDB的思考

采用容器和编排运行MongoDB带来了一些新的思考:

MongoDB数据库节点是有状态的。若一个容器挂了,并且被重新编排,数据丢失是不能接受的(虽然它可以从其他节点中恢复数据,但是很费时)。为解决这个问题,Kubernetes中的卷抽象(Volume abstraction)特性将用于映射MongoDB数据文件夹到一个持久化地址,避免容器的失败或重编排。

同一组MongoDB数据库备份节点之间需要通信,即使是在重编排之后。同一冗余备份集合的节点必须知道全部其他节点的地址,但是当某个容器重编排之后,它的IP地址会变化。例如,所有Kubernetes内的容器共享一个IP地址,当pod被重编排之后这个地址就会改变。在Kubernetes中,这个问题可以通过联系Kubernetes服务与MongoDB节点来解决,采用Kubernetes的DNS服务提供主机名给重编排之后的服务。

一旦每个独立的MongoDB节点(每个节点在单独容器中)启动起来,备份集合必须初始化,并把每个节点加入进来。这需要编排工具提供额外的逻辑。特别是备份集合中只有一个MongoDB节点时,必须执行rs.initiate和rs.add命令。

如果编排框架提供自动化重编排容器功能(如Kubernetes的特性),那么这可以提高MongoDB的容灾性,节点会在挂掉之后自动重新创建,恢复到完整冗余水平且不需要人工干预。

当编排框架掌控所有容器的状态时,它并不管理容器内的应用或者备份数据。这就意味着采用一个有效的管理和备份方案很重要,如MongoDB Cloud Manager,包括MongoDB Enterprise Advanced和MongoDB Professional两部分。考虑到需要创建镜像,可采用你倾向的MongoDB版本和MongoDB Automation Agent。

利用Docker和Kubernetes实现MongoDB冗余备份

如前一节所述,MongoDB这类分布式数据库在利用编排框架(如Kubernetes)进行部署时需要额外考虑。本节将对这部分细节进行分析,并介绍如何实现。

首先,我们在一个单独的Kubernetes集群(同一个数据中心内,并不存在物理上的冗余备份)中创建整个MongoDB冗余集合。如果跨多个数据中心进行创建,其步骤也差异不大,后续将会介绍。

备份中的每个成员都运行在独自的pod中,只暴露其IP地址和端口。固定的IP地址对于外部应用和其他冗余备份节点非常重要,它决定了哪些pod将被重新部署。

下图展示了其中一个pod与关联的冗余控制器和服务的关系。

 

深入这些配置中描述的资源,内容如下:

启动核心节点mongo-node1。该节点包括了一个叫做的mongo的镜像,来源于Docker Hub(https://hub.docker.com/_/mongo/),其暴露27107端口。

Kubernetes的卷特性用于映射/data/db文件夹到持久化目录mongo-persistent-storage1;该目录为Google Cloud上创建的目录映射mongodb-disk1,用于持久化MongoDB的数据。

容器由pod进行管理,标记为mongo-node,同时对rod提供一个随机生成的名字。

冗余控制器命名为mongo-rc1,用于确保mongo-node1的实例一直处于运行中。

负载均衡服务命名为mongo-svc-a用27017暴露端口。该服务通过pod的标签匹配正确的服务到对应的pod上,对外暴露的ip和端口给应用程序使用,同时用于冗余备份集合中各节点的通信。虽然每个容器拥有内部ip,但是当容器被重启或者移动之后它们会变更,因此不能用于冗余备份集合之间的通信。

下图展示了冗余备份及中的另一个成员信息:

 

90%的配置是相同的,只有几处不同:

硬盘和卷的名字必须是***的,于是采用mongodb-disk2和mongo-persisitent-storage2

Pod分配到jane实例,同时节点命名为mongo-node2,用于区分新服务与图1中的Pod

冗余控制命名为mongo-rc2

服务命名为mongo-svc-b,并获取一个不同的外部IP地址(本例子中,Kubernets分配为104.1.4.5)

第三个冗余备份成员的配置仿照上述的模式进行,下图展示了完整的冗余配置集合:

 

注意,即使配置如图3一样,在一个三个或者多个节点的Kubernetes集群上,Kubernetes可能会调度两个或者多个MongoDB冗余备份成员在同一个宿主机上。这是因为Kubernetes将三个pod视为三个独立的服务。

为了增加冗余,需要创建一个额外的headless服务。该服务不具备提供外部服务的能力,甚至没有外部IP地址,但是它用于通知Kubernetes这三个MongoDB Pod是属于同一个服务,于是Kubernetes会将它们调度在不同的节点上。

 具体的配置文件和相关操作命令可以从《启动微服务:容器&调度说明白皮书》中找到。其中包含了三个特殊的步骤确保合并三个MongoDB到一个功能中,即本文中描述的冗余备份。

多个可用区域MongoDB冗余集合

所有冗余部件均运行在同一个GCE集群上时具有很高的风险,在同一个zone的集群也一样。如果发生一个重大事件导致可用zone离线,那么MongoDB冗余集合也就不可用。如果需要地理上的冗余备份,那么三个pod需要运行在不同的zone内。

只需要很少的改动就可以创建这样一个冗余备份集合。每一个集群需要独自的Kubernetes YAML文件来定义pod、冗余控制器和服务。然后,就可以完成一个zone的集群创建、持久化存储和MongoDB节点。

下图展示了运行在不同zone上的冗余结合:

责任编辑:庞桂玉 来源: 运维派
相关推荐

2019-07-12 14:41:31

微服务Kubernetes容器

2022-10-19 13:11:35

2019-04-23 09:48:21

KubernetesPostgreSQL

2015-06-16 16:29:43

Docker云计算七牛

2023-01-26 11:56:31

Kubernete虚拟机k3s

2019-06-03 09:15:15

KubernetesKafka数据库

2020-07-20 18:30:44

Fedora 32DockerLinux

2017-03-07 11:02:03

Kubernetes微服务DevOps

2011-08-12 09:14:16

OpenShiftMongoDB

2021-03-02 06:00:05

Docker.NET 5 Dockerfile

2014-12-17 15:18:27

LinuxMonoWindows

2017-05-18 10:44:49

MACDockerOracle

2019-12-11 14:27:39

数据库集群Kubernetes

2018-02-26 08:14:20

LinuxDocker容器

2022-10-10 08:00:00

微服务Spring Boo容器

2021-08-09 09:00:00

Kubernetes云计算架构

2022-12-29 14:25:22

2021-12-14 06:59:39

微服务Kubernetes架构

2022-02-28 18:26:13

KubernetePostgreSQL负载均衡

2024-03-26 08:00:00

LLMVLMRaspberry
点赞
收藏

51CTO技术栈公众号