Micro-PaaS典型代表:Kubernetes技术分析入门

云计算 PaaS
Docker的流行激活了一直不温不火的PaaS,随着而来的是各类Micro-PaaS的出现,Kubernetes是其中最具代表性的一员,它是Google多年大规模容器管理技术的开源版本。本系列文章将逐一分析Kubernetes,本文通过一个例子进行入门,介绍Kubernetes的基本概念和功能。

概述

Docker的流行激活了一直不温不火的PaaS,随着而来的是各类Micro-PaaS的出现,Kubernetes是其中最具代表性的一员,它是Google多年大规模容器管理技术的开源版本。本系列文章将逐一分析Kubernetes,本文通过一个例子进行入门,介绍Kubernetes的基本概念和功能。

1. Kubernetes介绍

基本概念

- Pod

Pod是Kubernetes的基本操作单元,把相关的一个或多个容器构成一个Pod,通常Pod里的容器运行相同的应用。Pod包含的容器运行在同一个Node(Host)上,看作一个统一管理单元,共享相同的volumes和network namespace/IP和Port空间。

- Replication Controller

Replication Controller确保任何时候Kubernetes集群中有指定数量的pod副本(replicas)在运行, 如果少于指定数量的pod副本(replicas),Replication Controller会启动新的Container,反之会杀死多余的以保证数量不变。Replication Controller使用预先定义的pod模板创建pods,一旦创建成功,pod 模板和创建的pods没有任何关联,可以修改pod 模板而不会对已创建pods有任何影响,也可以直接更新通过Replication Controller创建的pods。对于利用pod 模板创建的pods,Replication Controller根据label selector来关联,通过修改pods的label可以删除对应的pods。

- Service

Service也是Kubernetes的基本操作单元,是真实应用服务的抽象,每一个服务后面都有很多对应的容器来支持,通过Proxy的port和服务selector决定服务请求传递给后端提供服务的容器,对外表现为一个单一访问接口,外部不需要了解后端如何运行,这给扩展或维护后端带来很大的好处。

- Label

Label是用于区分Pod、Service、Replication Controller的key/value键值对,Pod、Service、 Replication Controller可以有多个label,但是每个label的key只能对应一个value。Labels是Service和Replication Controller运行的基础,为了将访问Service的请求转发给后端提供服务的多个容器,正是通过标识容器的labels来选择正确的容器。同样,Replication Controller也使用labels来管理通过pod 模板创建的一组容器,这样Replication Controller可以更加容易,方便地管理多个容器,无论有多少容器。

架构

Kubernets属于主从的分布式集群架构,包含Master和Node:

1. Master作为控制节点,调度管理整个系统,包含以下组件:

- API Server作为kubernetes系统的入口,封装了核心对象的增删改查操作,以RESTFul接口方式提供给外部客户和内部组件调用。它维护的REST对象将持久化到etcd(一个分布式强一致性的key/value存储)。

- Scheduler:负责集群的资源调度,为新建的pod分配机器。这部分工作分出来变成一个组件,意味着可以很方便地替换成其他的调度器。

- Controller Manager:负责执行各种控制器,目前有两类:(1)Endpoint Controller:定期关联service和pod(关联信息由endpoint对象维护),保证service到pod的映射总是最新的。(2)Replication Controller:定期关联replicationController和pod,保证replicationController定义的复制数量与实际运行pod的数量总是一致的。

Node是运行节点,运行业务容器,包含以下组件:

Kubelet:责管控docker容器,如启动/停止、监控运行状态等。它会定期从etcd获取分配到本机的pod,并根据pod信息启动或停止相应的容器。同时,它也会接收apiserver的HTTP请求,汇报pod的运行状态。

Kube Proxy:负责为pod提供代理。它会定期从etcd获取所有的service,并根据service信息创建代理。当某个客户pod要访问其他pod时,访问请求会经过本机proxy做转发。

Kubernets使用Etcd作为存储和通信中间件,实现Master和Node的一致性,这是目前比较常见的做法,典型的SOA架构,解耦Master和Node。

#p#

2. Guestbook示例

Guestbook示例将会展示如何运行一个应用到Kubernetes上,应用包含

- Web前端

- Redis集群(一个master,2个slave)

Micro-PaaS典型代表:Kubernetes技术分析入门

1) 部署Kubernetes

如果你熟悉Bosh/Bosh Lite的话,可以使用kubernetes-release.本文使用Kubernetes环境:

- master:192.168.3.146

- node1:192.168.3.147

- node2:192.168.3.148

- node3:192.168.3.149

2)启动Redis Master

需要准备配置文件redis-master-controller.yaml,用于描述pod如何运行服务容器:

apiVersion: v1
kind: ReplicationController
metadata:
name: redis-master
labels:
name: redis-master
spec:
replicas: 1
selector:
name: redis-master
template:
metadata:
  labels:
    name: redis-master
spec:
  containers:
  - name: master
    image: redis
    ports:
    - containerPort: 6379

即使只有一个Redis Master Pod实例,这里也使用ReplicationController保证Pod持续运行,否则Node挂掉的话,Pod将停止运行。

创建Pod:

  1. $ kubectl create -f redis-master-controller.yaml 

查看ReplicationController:

 

  1. $ kubectl get rc  
  2. CONTROLLER   CONTAINER(S)  IMAGE(S)  SELECTOR            REPLICAS 
  3. redis-master master        redis     name=redis-master   1 

查看Pod:

 

  1. $ kubectl get pods -o wide 
  2. NAME                READY    STATUS    RESTARTS   AGE       NODE 
  3. redis-master-u3fup   1/1     Running   0          2m        node1 

可以看到Pod运行在Node1节点,在Node1查看docker容器:

  1. $ docker ps 
  2. CONTAINER ID  IMAGE                                ...     
  3. feb393fbe42b  redis:latestminute ago               ...          
  4. d9e934ee55ae  gcr.io/google_containers/pause:0.8.0 ...   

总共有2个容器正在运行,其中一个Redis Master,另外一个是google_containers/pause,它是Netowrk Container, 每启动一个Pod都会附加启动这样一个容器,它的作用就只是简单的等待,设置Pod的网络。

如果docker rm -f feb393fbe42b,删掉Redis Master Container,过一会儿就会有新的容器启动,这说明Kubernetes会保证Pod的容器运行。

 

  1. $ docker ps 
  2. CONTAINER ID  IMAGE                                ...     
  3. fc3b458d333a  redis:latestminute ago               ...          
  4. d9e934ee55ae  gcr.io/google_containers/pause:0.8.0 ...  

如果把Node1关掉,Pod会迁移到其他Node上,这是ReplicationController保证Pod运行。

 

  1. $ kubectl get pods -o wide 
  2. NAME               READY STATUS   RESTARTS  AGE       NODE 
  3. redis-master-x5kjp 0/1   Running  0         7s        node3 

上一步已经运行起了一个Redis Master Pod, 即使只有一个Pod,也是有必要使用Service。Kubernetes中Service中起到了负载均衡器的作用,通过Proxy和Selector决定服务请求传递给后端提供服务的Pod,对外提供固定的IP,这样的话Redis Master Pod迁移变化也不会影响。

需要redis-master-service.yaml来描述redis master service:

 

apiVersion: v1
kind: Service
metadata:
name: redis-master
labels:
name: redis-master
spec:
ports:
# the port that this service should serve on
- port: 6379
targetPort: 6379
selector:
name: redis-master #和redis-master的Label对应

创建Service:

  1. $ kubectl create -f redis-master-service.yaml 

查看Service:

$ kubectl get service

 

  1. NAME            LABELS              SELECTOR            IP(S)            PORT(S) 
  2. redis-master    name=redis-master   name=redis-master   10.254.189.63    6379/TCP 

Kubernetes会分配IP(10.254.189.63)给Redis Master Service,这个就是Redis Master Service对外暴露的IP,可以通过redis-cli访问:

  1. $ redis-cli -h 10.254.189.63 info 

#p#

Kubernetes同时提供2种了发现Service的方法:

- 环境变量

当Pod运行的时候,Kubernetes会将之前存在的Service的信息通过环境变量写到Pod里面,以Redis Master Service为例,它的信息会被写到新的Pod里面:

 

"REDIS_MASTER_PORT_6379_TCP=tcp://10.254.189.63:6379",
"REDIS_MASTER_PORT_6379_TCP_PROTO=tcp",
"REDIS_MASTER_PORT_6379_TCP_ADDR=10.254.189.63",
"REDIS_MASTER_SERVICE_PORT=6379",
"REDIS_MASTER_SERVICE_HOST=10.254.189.63",
"REDIS_MASTER_PORT=tcp://10.254.189.63:6379",
"REDIS_MASTER_PORT_6379_TCP_PORT=6379",

这种方法有个比较明显的缺陷,Pod必须在Service之后启动,之前启动的Pod将没有这些环境变量。那么下一种方法就没有这个限制。

- DNS

当有新的Service创建,就会自动生成一条DNS记录,比如在Kubernetes的Namespace "my-ns"中有个Service叫"my-service",那么就有条DNS记录"my-service.my-ns"对应Service的IP。以Redis Master Service为例, 就有条DNS记录:

  1. redis-master => 10.254.189.63 

3)启动Redis Slave

apiVersion: v1
kind: ReplicationController
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
replicas: 2
selector:
name: redis-slave
template:
metadata:
  labels:
    name: redis-slave
spec:
  containers:
  - name: worker
    image: kubernetes/redis-slave:v2
    ports:
    - containerPort: 6379

创建Pod:

 

$ kubectl create -f redis-slave-controller.yaml

$ kubectl get rc
CONTROLLER     CONTAINER(S)   IMAGE(S)                    SELECTOR            REPLICAS
redis-master   master         redis                       name=redis-master   1
redis-slave    worker         kubernetes/redis-slave:v2   name=redis-slave    2

$ kubectl get pods -o wide
NAME                 READY     STATUS    RESTARTS   AGE       NODE
redis-master-x5kjp   1/1       Running   0          1h        node3
redis-slave-04o8g    1/1       Running   0          5m        node1
redis-slave-llxpk    1/1       Running   0          5m        node1

redis-slave-service.yaml:

apiVersion: v1
kind: Service
metadata:
name: redis-slave
labels:
name: redis-slave
spec:
ports:
# the port that this service should serve on
- port: 6379
selector:
name: redis-slave

创建Service:

$ kubectl create -f redis-slave-service.yaml

$ kubectl get service

NAME LABELS SELECTOR IP(S) PORT(S)

redis-master name=redis-master name=redis-master 10.254.189.63 6379/TCP

redis-slave name=redis-slave name=redis-slave 10.254.70.184 6379/TCP

4)启动Web Frontend

$ kubectl create -f redis-slave-service.yaml 

$ kubectl get service
NAME            LABELS            SELECTOR           IP(S)           PORT(S)
redis-master   name=redis-master  name=redis-master  10.254.189.63   6379/TCP
redis-slave    name=redis-slave   name=redis-slave   10.254.70.184   6379/TCP

创建Pod:

 

$ kubectl create -f frontend-controller.yaml

$ kubectl get rc
CONTROLLER     CONTAINER(S)   IMAGE(S)                                    SELECTOR            REPLICAS
frontend       php-redis      kubernetes/example-guestbook-php-redis:v2   name=frontend       3
redis-master   master         redis                                       name=redis-master   1
redis-slave    worker         kubernetes/redis-slave:v2                   name=redis-slave    2

$ kubectl get pods
NAME                 READY     STATUS    RESTARTS   AGE
frontend-7ukb6       1/1       Running   0          45s
frontend-8ch4l       1/1       Running   0          45s
frontend-n8l7w       1/1       Running   0          45s
redis-master-x5kjp   1/1       Running   0          3h
redis-slave-04o8g    1/1       Running   0          2h
redis-slave-llxpk    1/1       Running   0          2h
apiVersion: v1
kind: Service
metadata:
name: frontend
labels:
name: frontend
spec:
ports:
# the port that this service should serve on
- port: 80
selector:
name: frontend

创建Service:

 

$ kubectl create -f frontend-service.yaml

$ kubectl get service
NAME            LABELS            SELECTOR            IP(S)            PORT(S)
frontend        name=frontend     name=frontend       10.254.58.118    80/TCP
redis-master    name=redis-master name=redis-master   10.254.189.63    6379/TCP
redis-slave     name=redis-slave  name=redis-slave    10.254.70.184    6379/TCP

Web Frontend是需要对外暴露的,这样外部网络才能真正访问该应用,Kubernetes提供了2种方式暴露Service到外部网络:

- NodePort

Kubernetes将会在每个Node上设置一个Port,访问该Port会被转发到对应的Service。这支持开发者设置自己的LoadBalancer。

- LoadBalancer

Kubernetes会设置LoadBalancer给Service。

本文采用NodePort方式, 更改frontend-service.yaml:

 

apiVersion: v1
kind: Service
metadata:
name: frontend
labels:
name: frontend
spec:
type: NodePort
ports:
# the port that this service should serve on
- port: 80
nodePort: 30061
selector:
name: frontend

那么就可以通过任意节点访问该应用:

参考

http://kubernetes.io/v1.0/docs

https://github.com/GoogleCloud ... es.md

https://github.com/GoogleCloud ... tbook

作者简介

吴龙辉,现任网宿科技高级运营工程师,致力于云计算PaaS的研究和实践,活跃于CloudFoundry、Docker、Kubernetes等开源社区,贡献代码和撰写技术文档。

邮箱:wulh@chinanetcenter.com/wlh6666@qq.com

原文链接:http://www.dockone.io/article/542

 

责任编辑:Ophira 来源: dockone
相关推荐

2015-09-06 10:29:20

PaaS云计算开源

2015-08-10 14:41:39

Kubernetes监控开源容器管理

2019-03-01 10:46:36

PaaSSaaS技术

2009-07-09 09:28:19

.Net Micro

2015-05-26 09:15:14

开源PaaS 云平台Cloud Found

2012-02-17 10:04:06

JavaPlay!

2015-10-15 14:32:34

2010-02-04 11:50:18

ibmdwCognosBI

2016-06-21 10:02:11

云计算

2017-09-30 10:17:24

云计算PaaS容器云

2022-04-17 10:04:32

HerokuPaaSPorter

2015-08-31 14:12:12

DockerKubernetesPaaS

2015-03-30 20:56:55

SaaS云计算企业级应用

2016-07-21 10:16:51

云计算

2024-08-06 09:54:20

2023-09-27 12:35:39

2011-01-27 09:40:53

PaaS

2009-03-26 10:12:00

WCDMA网络建设

2011-08-10 10:39:47

路由器路由器故障

2020-07-23 07:24:40

Kubernetes大数据开发
点赞
收藏

51CTO技术栈公众号