写给运维的Nginx秘籍

运维 服务器运维
为了更好地使用和管理Nginx,本文就给大家介绍几个虫虫日常常用的秘籍。

要说Web服务器、代理服务器和调度服务器层面,目前使用最大的要数Nginx。对于一个运维工程师日常不可避免要和Nginx打交道。为了更好地使用和管理Nginx,本文就给大家介绍几个虫虫日常常用的秘籍。

[[434941]]

限制访问

当Nginx开放到公网上以后,就会有大量的非正常访问,这不光耗费服务器资源,而且有可能是某种信息探索,然后攻击的前奏,有对针对性的限制这些访问很有必要。在Nginx中可以通过一些内置的变量来进行限制访问。

限制客户端代理

在nginx可以使用$http_user_agent变量匹配客户类型,然后对对匹配的访问return 4.3来限制器访问。

在Nginx配置的server部分,直接用if语句实现:

  1. if ($http_user_agent ~ (Go-http-client/1.1|curl)) { 
  2. return 403; 

但是如果要匹配的客户端代理比较多时候,直接这样拼写就比较繁琐也不好管理。这种情况下给大家一个技巧就是用Map函数。

Map函数在Nginx ngx_http_map_module中实现的。利用Map函数可以创建一个变量,并将其与其他变量(比如内置的$http_user_agent)关联起来,可以同时关联多个值到多个不同值并储存到一个变量。其基本语法为:

  1. map $var1 $var2 { ... } 

其作用于为http模块,这样可以在开头映射后,然后在具体的server部分进行封禁。

对应本例子中:

  1. map $http_user_agent:$arg_key $ban { 
  2. ~*spider* 1; 
  3. ~Go-http-client/1.1 1; 
  4. ~curl; 
  5. default 0; 

这样在后续if封禁语句中就可以使用新建的$ban变量进行封禁了。

  1. if ($ban = 1) { 
  2. return 403; 

IP限制

有时候对一些恶意来源的IP封禁则更为直接简单有效。Nginx进行IP封禁的方法也很简单,直接用deny语句,他是Nginx内置模块ngx_http_access_module,支持allow和deny两个语句,基本语法为:

  1. deny address | CIDR | unix: | all; 

可以在http或者server块直接使用:

  1. deny 135.125.180.235; 

如果要封闭的IP很多,可以直接在nginx配置文件中include一个封禁文件专管理封禁的IP。

  1. include banip.conf; 

在banip.conf文件中用:

  1. deny 135.125.180.235; 
  2. deny 135.125.180.1/24; 
  3. … 

这样语句即可,当然也可以用allow和deny all搞成实时上的白名单限制模式:

  1. allow 127.0.0.1; 
  2. allow 192.168.0.0/18; 
  3. allow 110.242.68.66; 
  4. … 
  5. deny all; 

这样除了本机、18位的内网段和110.242.68.66外其他IP都会禁止访问。

速率限制

除了直接限制访问外很多时候,不能直接限制其访问,但是需要针对特定请求限制访问的速率(频率)。在Nginx速率限制通过limit_req_zone和limit_req两个指令实现。

limit_req_zone用来定义请求限制区域。区域包含有关如何分类的配置请求速率限制和实际限制。

limit_req将区域应用于特定http上下文对于全局限制,server每个虚拟服务器,以及location对于虚拟中的特定位置服务器。

为了说明这一点,假设要实现速率限制配置:

  • 全局速率限制100 RPS
  • 由User-Agent来限制特定来源(搜索蜘蛛)请求为1RPM。
  • 通过API令牌将来自某些可以客户端的请求限制为1RPS。

要对请求进行分类,需要提供索引到 limit_req_zone。键通常是一些变量,要么由nginx预定义,要么由通过map定义。

要通过IP设置全局速率限制,需要以IP作为键。

  1. limit_req_zone $binary_remote_addr zone=global:100m rate=100r/s; 

现在,通过以下方式限制搜索蜘蛛的User-Agent,此处我们使用map函数:

  1. map $http_user_agent $crawler { 
  2. ~*.*( Baiduspider|bot|spider|slurp).* $http_user_agent; 
  3. default ""; 
  4. limit_req_zone $crawler zone=crawlers:1M rate=1r/m; 

上面配置中通过map设置$crawler变量作为limit_req_zone的键。limit_req_zone对于不同的客户端必须有不同的值才能正确计算请求计数。如果请求不是来自crawler,使用一个空字符串来禁用速率限制。

对API令牌限制请求,使用map创建一个多个键,对应其速率限制区域:

  1. map $http_authorization $eclients { 
  2. ~.*6d96270004515a0486bb7f76196a72b40c55a47f.* 6d96270004515a0486bb7f76196a72b40c55a47f; 
  3. ~.*956f7fd1ae68fecb2b32186415a49c316f769d75.* 956f7fd1ae68fecb2b32186415a49c316f769d75; 
  4. default ""; 
  5. limit_req_zone $eclients zone=eclients:1M rate=1r/s; 

下面我们来看看 AuthorizationAPI 令牌的标头,如 Authorization: Bearer 1234567890. 如果我们匹配一些已知的标记,我们使用该值$eclients为了变量,然后其作为键引入到limit_req_zone。

  1. server { 
  2. listen 80; 
  3. server_name test.show; 
  4. limit_req zone=crawlers
  5. limit_req zone=global
  6. # ... 
  7. server { 
  8. listen 80; 
  9. server_name api.test.show; 
  10. # ... 
  11. location /heavy/method { 
  12. # ... 
  13. limit_req zone=eclients
  14. limit_req zone=global
  15. # ... 
  16. # ... 

请注意,配置中必须添加globa区域作为后备,非匹配的情况。

最后总结一下速率限制的流程:

  • 创建保存速率限制的变量的键。不同键值对应于不同的速率限制区域。
  • 空键表示禁用速率限制。
  • 使用带限速键的变量来配置限速区域配置。
  • 在需要的地方应用速率限制区域limit_req。
  • 速率限制将有助于保持系统稳定。

除了速率限制,Nginx也有一个请求频率限制方法limit_conn_zone和对应的 limit_conn用来限制请求的频次。其使用方法,具体和limit_req_zone以及limit_req的方法也类似,下面是一个例子:

  1. http { 
  2. limit_conn_zone $binary_remote_addr zone=perip:10m; 
  3. limit_conn_zone $server_name zone=perserver:10m; 
  4. server { 
  5. location / { 
  6. limit_conn perip 10; 
  7. limit_conn perserver 1000; 

缓存

Nginx 最大的用途是作为代理缓存服务器。假设请求代理到某个后端应用服务器,后端服务器返回请求数据的成本很高。则可以通过缓存它来减少后端的负载。

  1. http { 
  2. # ... 
  3. proxy_cache_path /var/cache/nginx/test keys_zone=test:500m max_size=1000m inactive=1d
  4. # ... 
  5. server { 
  6. # ... 
  7. location /test { 
  8. proxy_pass test.show_backend; 
  9. proxy_cache test; 
  10. proxy_cache_key "$scheme$proxy_host$request_uri $http_customer_token"; 
  11. proxy_cache_valid 200 302 1d; 
  12. proxy_cache_valid 404 400 10m; 

在此示例中,通过添加 $http_customer_token保存值的变Customer-Token HTTP 标题。然后,与速率限制一样,定义缓存区域应用于服务器、位置或全局使用 proxy_cache指示。另外还要配置缓存失效。 默认情况下,仅对200、301 和 302 HTTP状态码响应缓存,超过10分钟更新一次缓存内容。另外对于后端服务器Nginx会遵守其指示性的Http头,例如Cache-Control标头。如果标头包含类似no-store,must-revalidate,nginx则不会对其缓存响应。可以在Nginx配置

  1. proxy_ignore_headers "Cache-Control"; 

来覆盖该行为。

因此,要配置 nginx 缓存失效,请执行以下操作:

  • 设置max_size在 proxy_cache_path限制磁盘的占用。如果nginx需要缓存超过max_size,将从缓存中移除最近最少使用的值
  • 设置inactive参数输入proxy_cache_path配置TTL整个缓存区。可以用 proxy_cache_valid指示。
  • 最后,添加proxy_cache_valid将指示TTL的指令在给定位置或服务器中缓存项目,这将为缓存设置TTL条目。

结构化日志

从Nginx访问日志是个大宝藏,我们可以通过其挖掘当前Web服务的在线状态,使用状态和用户信息。但是其默认访问日志有点太简陋,需要对其进行配置增加必须的字段,调整其位置,使其更加格式化。Nginx日志的配置需要用 log_format语句。一个典型的配置如下:

  1. log_format main '$remote_addr - $remote_user [$time_iso8601] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent - $ssl_client_s_dn $ssl_client_serial $ssl_client_verify" "$http_x_forwarded_for"'; 

上述配置中,除了常见的各种字段外,另外增加了$ssl_client_s_dn $ssl_client_serial和$ssl_client_verify,用于在https双向认证时候客户的端用CA签发dn信息,用户证书序列号用来记录合法认证的用户信息。

另外为了和ELK或者其他日志系统的集成使用json格式的结构化日志很有必要,可以使用graylog将文本日志转化,也可以直接在Nginx配置生成:

  1. http { 
  2. # ... 
  3. log_format json escape=json '{' 
  4. '"server_name": "test.show",' 
  5. '"ts":"$time_iso8601",' 
  6. '"remote_addr":"$remote_addr","host":"$host","origin":"$http_origin","url":"$request_uri",' 
  7. '"request_id":"$request_id","upstream":"$upstream_addr",' 
  8. '"response_size":"$body_bytes_sent","upstream_response_time":"$upstream_response_time","request_time":"$request_time",' 
  9. '"status":"$status"' 
  10. '"$https_info": "$ssl_client_s_dn $ssl_client_serial $ssl_client_verify"' 
  11. '}'; 
  12. # ... 

escape=json选项将替换不可打印的字符,如换行符和转义值,例如\n. 引号和反斜杠也将被转义。

如果是K8S容器云节点的服务可以,直接用filter用来指定:

  1. filter { 
  2. json { 
  3. source => "log" 
  4. remove_field => ["log"] 

灰度发布(A/B测试)

运维部门为了保证服务升级,往往会采用灰度发布的方式,逐步将用户切换到新的版本中。

在Nginx 可以用split_client模块实现提供逐步升级的功能。他有点类似像map函数,但不是通过某种模式设置变量,而是创建来自源变量分布的变量。下面一个例子:

  1. http { 
  2. upstream current { 
  3. server backend1; 
  4. serverbackend2; 
  5. upstream new { 
  6. server dev.show max_fails=0
  7. split_clients $arg_key $new_api { 
  8. 5% 1; 
  9. * 0; 
  10. map $new_api:$cookie_app_switch $destination { 
  11. ~.*:1 new; 
  12. ~0:.* current; 
  13. ~1:.* new; 
  14. server { 
  15. # ... 
  16. location /api { 
  17. proxy_pass $destination/; 

在此示例中,app_switch和split_clients cookie 值结合生成调度键。如果 cookie设置为设置$destination调度到上游的new为1。 否则,从 split_clients调度。这是在生产一种用于测试新系统的功能标志:拥有cookie集用户都将始终请求到new。

键的分布是一致的。如果已将API键用于split_clients那么具有相同API键的用户将始终被放入同一组。

使用此配置,可以将流量分流到新系统,从小百分比开始并逐渐增加。当然修改百分比参数后,不需要reload才能生效。

结论

本文我们介绍一些日常运维中Nginx的管理秘籍,当然密不密不是绝对只是个人看法,希望以此抛砖引玉,如果你有任何建议和建议补充,可以回复说明。

 

责任编辑:赵宁宁 来源: 今日头条
相关推荐

2019-10-29 16:29:28

运维架构开发

2019-05-06 10:35:49

运维监控白盒

2019-03-15 10:13:10

运维云计算运营

2013-03-29 09:15:08

IT运维运维人员运维工程师

2016-12-13 13:15:49

运维

2017-12-15 09:20:20

IT运维顺丰

2019-03-19 08:41:38

Linux运维变更

2010-01-21 22:19:25

网络优化运维管理摩卡软件

2009-08-26 10:41:21

防止数据丢失

2011-11-24 21:59:55

运维企业外包

2021-04-15 11:22:36

运维架构技术

2009-11-27 12:02:56

IT运维

2018-12-05 08:30:27

IT运维逻辑

2016-11-25 17:51:48

华为ICT

2014-03-06 18:11:20

男运维女运维DBA

2013-04-12 13:30:47

2019-12-26 10:10:41

运维架构技术

2023-10-24 07:22:22

Nginx运维管理

2018-12-19 09:38:20

2024-09-05 23:04:46

GPTpass地址
点赞
收藏

51CTO技术栈公众号