0x0 问题
运维从来都是一个“不起眼”的大问题。运维工作还特别琐碎,一般要花去工程师大量的时间,同时还有突发性,对工程师机动性要求比较高。所以运维自动化一直在困扰暴走漫画团队。
虽说大部分运维工作都交给第三方云服务提供商了,但是平时还是有一些机器的维护之类的,繁琐的事情。
我 做的最多的应该就是加减服务器了。暴漫的流量趋势非常规律,每年寒暑假是访问的高峰期,一般会比平时流量高出2倍。所以每年寒暑假之前都要添加足量的服务 器以应对马上到来的流量高峰,而在寒暑假结束之后,要去掉一部分机器,以节省开支。刚开始完全是人肉运维,我一个人先去开5台机器,然后一个个上去改配置 文件之类的,感觉好傻。后面就用了ansible作为自动化运维工具,这个要比puppet和chef轻量很多,对付我们这些简单的运维工作绰绰有余。 于是现在就变成了开完机器,用ansible同步配置,代码,启动app server,然后手动更新nginx配置。
使用ansible之后其实已经轻松很多了,但是还不够,我想象中的自动化集群,应该可以随意增加删除node,node不可用的时候自动删除,当然这些都不能影响服务的访问。
下面介绍一种自动化的Rails集群方案
0x1 相关技术
- docker
- hashicorp/consul(https://github.com/hashicorp/consul)
- hashicorp/consul-template(https://github.com/hashicorp/consul-template)
- hashicorp/registrator(https://github.com/gliderlabs/registrator)
0X2 整体架构
0x3 实践
由于不是科普帖,各种工具的详细信息就不自己介绍了。
consul & registrator |
这两个工具是集群中每个节点的基础服务。我在一台机器上,所以把consul cluster给省掉了,只用了一个consul节点。下面是docker-compose配置。
consul: hostname: node1 image: progrium/consul command: -server -bootstrap -advertise 172.17.42.1 ports: - "8400:8400" - "8500:8500" - "8600:53/udp" registrator: image: gliderlabs/registrator command: consul://consul:8500 hostname: registrator1 volumes: - /var/run/docker.sock:/tmp/docker.sock links: - consul |
需要注意的是consul的启动参数里的advertise。应该声明为host机器的docker0的ip。如果不声明的话会默认使用容器ip,这样registrator注册的设备ip都是不可访问的。
以上配置启动之后一套自动服务器发现功能就算完工了。
#p#
接下来,我们配置一个web应用测试一下。
web:
image: nginx volumes: - ./sites-enabled:/etc/nginx/conf.d ports: - "80:80" links: - rails rails: image: tutum/hello-world ports: - "80" |
这个配置生成了nginx和rails,并且挂载了本地的sites-enabled文件夹作为nginx的配置来源。注意rails的ports是随机的。
在sites-enabled中配置nginx server已rails作为backend。
- upstream backend {
- }
- server {
- server_name "10.0.2.15";
- location / {
- proxy_pass http://backend;
- }
- }
对你并没有看错, upstream并没有定义可用的backend node。这个配置将会有consul-template根据服务列表自动填充。
让我们启动这个web应用,访问80端口是无法访问的 应为没有backend node。
接下来需要安装consule-template, 在github下载对应的release。
然后创建一个配置文件ct-nginx.conf
- consul = "127.0.0.1:8500"
- log_level = "warn"
- template {
- source = "/home/vagrant/nginx.ctmpl"
- destination = "/home/vagrant/sites-enabled/backend.conf"
- command = "docker-compose -f /home/vagrant/docker-compose.yml restart web"
- }
我有映射consul的端口,所以直接使用了127.0.0.1。source就是我们配置文件的模板。如下
- upstream backend {
- {{range service "hello-world"}}
- server {{.Address}}:{{.Port}};{{end}}
- }
- server {
- server_name "10.0.2.15";
- location / {
- proxy_pass http://backend;
- }
- }
consul-template提供了方便的模板查询语句,可以直接从consul中查询并渲染出配置文件。这个模板中就找出了所有名字为“hello-world”的service,并且循环输出service对应的Address,也就是服务ip,Port。
接着看ct-nginx.conf,destination代表模板生成完毕之后的位置, 这里直接放在nginx的配置文件夹,***command是生成配置后的动作,可以重启各种服务。我们这里在更新nginx之后重启生效。
OK,配置已经妥当,consul和registrator也已经启动, 让我们看看当前的服务列表。
- $ curl localhost:8500/v1/catalog/service/hello-world?pretty
- $ []
当前并没有注册名为hello_world的服务。
#p#
稍微提一下registrator注册服务的命名机制,registaor默认是通过提取容器各种参数来生成的的服务参数
比如
- docker run -d --name nginx.0 -p 4443:443 -p 8000:80 progrium/nginx
生成的服务信息如下
- [
- {
- "ID": "hostname:nginx.0:443",
- "Name": "nginx-443",
- "Port": 4443,
- "IP": "192.168.1.102",
- "Tags": [],
- "Attrs": {},
- },
- {
- "ID": "hostname:nginx.0:80",
- "Name": "nginx-80",
- "Port": 8000,
- "IP": "192.168.1.102",
- "Tags": [],
- "Attrs": {}
- }
- ]
当然也可以通过环境变量来指定
- $ docker run -d --name nginx.0 -p 4443:443 -p 8000:80 \
- -e "SERVICE_443_NAME=https" \
- -e "SERVICE_443_ID=https.12345" \
- -e "SERVICE_443_SNI=enabled" \
- -e "SERVICE_80_NAME=http" \
- -e "SERVICE_TAGS=www" progrium/nginx
- [
- {
- "ID": "https.12345",
- "Name": "https",
- "Port": 4443,
- "IP": "192.168.1.102",
- "Tags": ["www"],
- "Attrs": {"sni": "enabled"},
- },
- {
- "ID": "hostname:nginx.0:80",
- "Name": "http",
- "Port": 8000,
- "IP": "192.168.1.102",
- "Tags": ["www"],
- "Attrs": {}
- }
- ]
接下来我们启动consul-template
- $ consul-template -config=./ct-nginx.conf
会直接根据模板生成一个nginx配置 虽然现在并没有backend node。
- $ cat /home/vagrant/sites-enabled/backend.conf
- upstream backend {
- }
- server {
- server_name "10.0.2.15";
- location / {
- proxy_pass http://backend;
- }
- }
然后启动我们的web应用。
启动之后,请求服务列表就可以看到helle-world服务,说明已经实现自动服务发现。
- $ curl localhost:8500/v1/catalog/service/hello-world?pretty
- [
- {
- "Node": "node1",
- "Address": "172.17.42.1",
- "ServiceID": "registrator1:vagrant_rails_1:80",
- "ServiceName": "hello-world",
- "ServiceTags": null,
- "ServiceAddress": "",
- "ServicePort": 32783
- }
- ]
浏览器中可以正常访问了,Yeah!
#p#
OK, 让我们更进一步,scale我们的rails node。
- $ docker-compose scale rails=4
- $ curl localhost:8500/v1/catalog/service/hello-world?pretty
- [
- {
- "Node": "node1",
- "Address": "172.17.42.1",
- "ServiceID": "registrator1:vagrant_rails_1:80",
- "ServiceName": "hello-world",
- "ServiceTags": null,
- "ServiceAddress": "",
- "ServicePort": 32783
- },
- {
- "Node": "node1",
- "Address": "172.17.42.1",
- "ServiceID": "registrator1:vagrant_rails_2:80",
- "ServiceName": "hello-world",
- "ServiceTags": null,
- "ServiceAddress": "",
- "ServicePort": 32784
- },
- {
- "Node": "node1",
- "Address": "172.17.42.1",
- "ServiceID": "registrator1:vagrant_rails_3:80",
- "ServiceName": "hello-world",
- "ServiceTags": null,
- "ServiceAddress": "",
- "ServicePort": 32785
- },
- {
- "Node": "node1",
- "Address": "172.17.42.1",
- "ServiceID": "registrator1:vagrant_rails_4:80",
- "ServiceName": "hello-world",
- "ServiceTags": null,
- "ServiceAddress": "",
- "ServicePort": 32786
- }
- ]
此时nginx已经重启,我们可以看到4个backend都开始处理请求。
你可以看到,rails服务器只要启动之后就自动加入集群,如果一台节点挂掉之后,会自动从集群里去掉,基本上没有任何影响。
肯定有不足的地方,欢迎讨论, 发出来就是为了学习。
博文出处:http://dev.baozou.com/ye-tan-ji-yu-dockerde-railsji-qun/