不可思议!平均执行耗时仅1.5ms的接口在超时时间100ms下成功率竟然还不到5个9!!

开发 前端
本文深入分析了平均耗时仅有1.5ms的接口也会出现大量100ms+的前因后果,并在框架层面给出了弹性超时的解决方案。这也刷新了我们的认知,由于GC、CPU时间片等原因,一些看起来很简单的操作(如i++)也会出现偶发性长耗时。

1.背景

一个春暖花开的午后,客服技术部佩姐(P)找过来向我们反馈一个问题,如下是我们的对话:

P:云杰,我们最近在治理服务质量,有个接口的成功率达不到公司标准5个9。
 
我:赞,你们也开始质量治理了,详细说说。
 
P:我们sccis有个重要的lookupWarehouseIdRandom接口,先查询缓存,未命中的再从数据库查并回写到缓存,平均执行耗时只有1.5ms。现在scoms在调它,超时时间配的还是100ms,结果发现每天还有500多个超时,成功率不到5个9,达不到公司标准。你们框架是不是有问题啊,帮忙看看!
 
我:不至于吧!?平均执行耗时1.5ms,在调用方超时时间配100ms(60多倍!)的情况下竟然还有这么多超时?
 
P:真的!!不信你看看!!!
 
我:看看就看看!

如下开始本篇的研究之旅。

2 验证与分析

2.1 准备工作

在开始验证之前,先简要介绍下转转RPC框架SCF的调用过程,如下图所示:图片

  • 序列化:SCF接收到调用方的请求,做负载均衡、序列化等;
  • 发送:SCF将序列化后的二进制流通过网络发送给服务方结点;
  • 反序列化:服务方结点接收到数据后,将数据交给SCF,做反序列化、排队等;
  • 执行:SCF将请求交由服务方的实现方法进行处理;
  • 序列化:SCF将服务方的处理结果序列化为二进制数据流;
  • 发回:将数据发回给调用方;
  • 反序列化:调用方SCF收到请求后,将二进制数据反序列化为对象交由调用方代码,使得调用方看起来跟本地方法调用一样。

如上是一次完整的RPC调用链路。

2.2 验证

通过监控我们发现接口的平均执行耗时确实在1.5ms左右,如下图所示:

图片图片

但调用方scoms在超时时间为100ms的情况下确实仍然有很多请求超时:

图片图片

太让人震惊了!!!

2.3 问题分析

通过如上的RPC调用过程链路示意,我们可以看出任意一个子过程都可能会发生抖动,造成超时。但我们可以从整体上把链路分为框架和业务两个部分(分界点如图所示):

  • 框架:指底层的网络和SCF耗时,属于客观原因,包括图中的1、2、3、5、6、7;
  • 业务:单纯指业务服务的执行4,属于主观原因。

因为框架耗时复杂多变,不好统计,我们可以统计业务的执行耗时分布,以此来判断问题出在框架上还是出在业务上。

  • 如果业务的执行耗时分布都非常低,那就说明超时花在了框架上;
  • 如果业务的执行耗时分布都有很多高耗时的,那就说明超时花在了业务逻辑上。

正好服务方的接口有耗时分布监控,通过监控我们发现绝大部分情况都在5ms内处理完成,但仍有314个请求处理时间直接超过了100ms!!!

耗时分布耗时分布

这个发现也让我们大吃一惊:平均执行耗时1.5ms的接口,竟然还会有这么多请求执行耗时越过100ms!! 那么这些时间都花在哪里了呢?

2.4 排查

目前的监控都是接口的整体执行耗时,我们需要深入接口内部看看时间都花在哪里了。我们对接口分为如下几个部分,并分段监控起来。

图片图片

监控结果如下所示:

图片图片

从结果可以看到:

  • I/O操作容易抖动,出现较多次100ms+;
  • 最简单的CPU操作虽然没有那么多100ms+,但也有不少20ms左右的情况(而且都是从1ms突变到20ms,而不是渐变)。

2.5 原因

原来我们是被1.5ms给平均了!什么原因会导致这种长尾效应呢?情况可能有很多,GC(极度怀疑)、CPU时间片分配等。如下是sccis的GC监控:

图片图片

为此,我们也对比了转转商品服务zzproduct的getProductById()接口,发现也有同样的情况:

getProductById()耗时分布getProductById()耗时分布

3.解决方案

至此,我们看到业务接口平均执行耗时虽然仅有1.5ms,但仍会出现不少超过100ms的长尾效应,当然框架也会出现。其原因有多种,GC(极有可能)、CPU时间片分配、网络抖动等等。

而这,也确实刷新了我们所有人的认知。

反过来想,如果业务接口要达到公司要求的5个9要求,该怎么办呢?其实很简单,我们可以参照调用方的TP9999来设置超时时间。如下图,scoms调用该接口的TP99999是123ms,而业务把超时时间配置成了100ms,那肯定达不到5个9的标准了。要么把超时时间改为123ms(简单直接),要么优化业务逻辑(目测很难,因为平均执行耗时只有1.5ms)或JVM调优(很有希望)。

图片图片

3.1 框架优化-弹性超时

基于本文分析,RPC框架也可以针对这种长尾效应做一定优化:不改变超时时间100ms配置情况下,允许一段时间(可配)一些量(可配)的请求在200ms(可配)时间内返回,既提高了服务质量,又不太影响用户体验,我们称之为弹性超时方案。

3.1.1 效果

如下图所示,我们在服务管理平台支持按服务&函数设置弹性超时,这里我们将上文zzscoms调zzsccis的IInventoryWrapCacheFacade.lookupWarehouseIdRandom(List)函数配置成每40秒允许15个请求的超时时间延长至1300毫秒。

弹性超时配置弹性超时配置

通过配置弹性超时,我们看到这种偶发性的超时基本被容忍消灭掉了,如下图所示:

图片图片

3.1.2 适用场景

弹性虽好,可不要贪杯!它更多适用于一些偶发性超时场景,比如网络抖动、GC、CPU抖动、冷启动等,如果是大面积的超时还是需要深入分析治理。

4 总结

本文深入分析了平均耗时仅有1.5ms的接口也会出现大量100ms+的前因后果,并在框架层面给出了弹性超时的解决方案。这也刷新了我们的认知,由于GC、CPU时间片等原因,一些看起来很简单的操作(如i++)也会出现偶发性长耗时。


关于作者

杜云杰,高级架构师,转转架构部负责人,转转技术委员会执行主席,腾讯云TVP。负责服务治理、MQ、云平台、APM、分布式调用链路追踪、监控系统、配置中心、分布式任务调度平台、分布式ID生成器、分布式锁等基础组件。

责任编辑:武晓燕 来源: 转转技术
相关推荐

2021-11-10 06:38:01

Python链式操作

2023-04-06 09:44:00

ChatGPT行业质量

2011-07-18 13:35:14

HTML 5

2022-09-20 10:41:32

接口优化网络

2024-06-13 09:17:41

2024-06-04 10:37:06

2024-11-29 07:42:47

2024-07-30 14:26:52

2020-08-06 11:25:29

数据库链接池线程

2017-03-21 08:52:20

神经网络声誉

2020-09-01 11:10:39

数据库链接池HikariCP

2013-10-10 13:07:25

方物

2024-04-07 00:00:00

亿级数据ES

2022-01-24 15:57:34

Python返回功能代码

2012-02-13 11:01:27

N9Android 4.0

2013-07-31 15:06:58

未来的WebWebGLWeb

2011-02-23 08:50:22

C#.NETdynamic

2010-07-15 16:21:03

不可思议的服务器

2020-07-02 15:40:11

Spring BootJar包Java

2017-11-08 14:07:45

数据库MySQL慢查分析
点赞
收藏

51CTO技术栈公众号