数据库链接池终于搞对了,从100ms优化到3ms!

运维 数据库运维
我在研究 HikariCP(一个数据库连接池)时无意间在 HikariCP 的 Github wiki 上看到了一篇文章,这篇文章有力地消除了我一直以来的疑虑,看完之后感觉神清气爽。

 我在研究 HikariCP(一个数据库连接池)时无意间在 HikariCP 的 Github wiki 上看到了一篇文章,这篇文章有力地消除了我一直以来的疑虑,看完之后感觉神清气爽。

[[340228]]


图片来自 Pexels

 

本文内容 95% 译自这篇文章:

  1. https://github.com/brettwooldridge/HikariCP/wiki/About-Pool-Sizing 

数据库连接池的配置是开发者们常常搞出坑的地方,在配置数据库连接池时,有几个可以说是和直觉背道而驰的原则需要明确。

1 万并发用户访问

想象你有一个网站,压力虽然还没到 Facebook 那个级别,但也有个 1 万上下的并发访问,也就是说差不多 2 万左右的 TPS。

那么这个网站的数据库连接池应该设置成多大呢?结果可能会让你惊讶,因为这个问题的正确问法是:“这个网站的数据库连接池应该设置成多小呢?”

下面这个视频是 Oracle Real World Performance Group 发布的,请先看完:

  1. http://www.dailymotion.com/video/x2s8uec 

因为这视频是英文解说且没有字幕,我替大家做一下简单的概括:视频中对 Oracle 数据库进行压力测试,9600 并发线程进行数据库操作,每两次访问数据库的操作之间 sleep 550ms,一开始设置的中间件线程池大小为 2048:

 

初始的配置

压测跑起来之后是这个样子的:

 

2048 连接时的性能数据

每个请求要在连接池队列里等待 33ms,获得连接后执行 SQL 需要 77ms,此时数据库的等待事件是这个熊样的:

 

各种 buffer busy waits

各种 buffer busy waits,数据库 CPU 在 95% 左右(这张图里没截到 CPU)。

接下来,把中间件连接池减到 1024(并发什么的都不变),性能数据变成了这样:

 

连接池降到 1024 后

获取链接等待时长没怎么变,但是执行 SQL 的耗时减少了。

下面这张图,上半部分是 wait,下半部分是吞吐量:

 

 

wait 和吞吐量

能看到,中间件连接池从 2048 减半之后,吐吞量没变,但 wait 事件减少了一半。

接下来,把数据库连接池减到 96,并发线程数仍然是 9600 不变。

 

96 个连接时的性能数据

队列平均等待 1ms,执行 SQL 平均耗时 2ms。

 

wait 事件几乎没了,吞吐量上升。没有调整任何其他东西,仅仅只是缩小了中间件层的数据库连接池,就把请求响应时间从 100ms 左右缩短到了 3ms。

But Why?

为什么 Nginx 只用 4 个线程发挥出的性能就大大超越了 100 个进程的 Apache HTTPD?回想一下计算机科学的基础知识,答案其实是很明显的。

即使是单核 CPU 的计算机也能“同时”运行数百个线程。但我们都[应该]知道这只不过是操作系统用时间分片玩的一个小把戏。

一颗 CPU 核心同一时刻只能执行一个线程,然后操作系统切换上下文,核心开始执行另一个线程的代码,以此类推。

给定一颗 CPU 核心,其顺序执行 A 和 B 永远比通过时间分片“同时”执行 A 和 B 要快,这是一条计算机科学的基本法则。

一旦线程的数量超过了 CPU 核心的数量,再增加线程数系统就只会更慢,而不是更快。这几乎就是真理了……

有限的资源

上面的说法只能说是接近真理,但还并没有这么简单,有一些其他的因素需要加入。

当我们寻找数据库的性能瓶颈时,总是可以将其归为三类:CPU、磁盘、网络。

把内存加进来也没有错,但比起磁盘和网络,内存的带宽要高出好几个数量级,所以就先不加了。

如果我们无视磁盘和网络,那么结论就非常简单。在一个 8 核的服务器上,设定连接/线程数为 8 能够提供最优的性能,再增加连接数就会因上下文切换的损耗导致性能下降。

数据库通常把数据存储在磁盘上,磁盘又通常是由一些旋转着的金属碟片和一个装在步进马达上的读写头组成的。

读/写头同一时刻只能出现在一个地方,然后它必须“寻址”到另外一个位置来执行另一次读写操作。

所以就有了寻址的耗时,此外还有旋回耗时,读写头需要等待碟片上的目标数据“旋转到位”才能进行操作。使用缓存当然是能够提升性能的,但上述原理仍然成立。

在这一时间段(即"I/O 等待")内,线程是在“阻塞”着等待磁盘,此时操作系统可以将那个空闲的 CPU 核心用于服务其他线程。

所以,由于线程总是在 I/O 上阻塞,我们可以让线程/连接数比 CPU 核心多一些,这样能够在同样的时间内完成更多的工作。

那么应该多多少呢?这要取决于磁盘。较新型的 SSD 不需要寻址,也没有旋转的碟片。

可别想当然地认为“SSD 速度更快,所以我们应该增加线程数”,恰恰相反,无需寻址和没有旋回耗时意味着更少的阻塞,所以更少的线程(更接近于 CPU 核心数)会发挥出更高的性能。

只有当阻塞创造了更多的执行机会时,更多的线程数才能发挥出更好的性能。

网络和磁盘类似。通过以太网接口读写数据时也会形成阻塞,10G 带宽会比 1G 带宽的阻塞少一些,1G 带宽又会比 100M 带宽的阻塞少一些。

不过网络通常是放在第三位考虑的,有些人会在性能计算中忽略它们。

 

上图是 PostgreSQL 的 benchmark 数据,可以看到 TPS 增长率从 50 个连接数开始变缓。

在上面 Oracle 的视频中,他们把连接数从 2048 降到了 96,实际上 96 都太高了,除非服务器有 16 或 32 颗核心。

计算公式

下面的公式是由 PostgreSQL 提供的,不过我们认为可以广泛地应用于大多数数据库产品。

你应该模拟预期的访问量,并从这一公式开始测试你的应用,寻找最合适的连接数值。

  1. 连接数 = ((核心数 * 2) + 有效磁盘数) 

核心数不应包含超线程(hyper thread),即使打开了 hyperthreading 也是。

如果活跃数据全部被缓存了,那么有效磁盘数是 0,随着缓存命中率的下降,有效磁盘数逐渐趋近于实际的磁盘数。这一公式作用于 SSD 时的效果如何尚未有分析。

按这个公式,你的 4 核 i7 数据库服务器的连接池大小应该为:((4 * 2) + 1) = 9。

取个整就算是是 10 吧。是不是觉得太小了?跑个性能测试试一下,我们保证它能轻松搞定 3000 用户以 6000TPS 的速率并发执行简单查询的场景。如果连接池大小超过 10,你会看到响应时长开始增加,TPS 开始下降。

笔者注:这一公式其实不仅适用于数据库连接池的计算,大部分涉及计算和 I/O 的程序,线程数的设置都可以参考这一公式。

我之前在对一个使用 Netty 编写的消息收发服务进行压力测试时,最终测出的最佳线程数就刚好是 CPU 核心数的一倍。

你需要一个小连接池和一个充满了等待连接的线程的队列

如果你有 10000 个并发用户,设置一个 10000 的连接池基本等于失了智。

1000 仍然很恐怖。即是 100 也太多了。你需要一个 10 来个连接的小连接池,然后让剩下的业务线程都在队列里等待。

连接池中的连接数量应该等于你的数据库能够有效同时进行的查询任务数(通常不会高于 2*CPU 核心数)。

我们经常见到一些小规模的 Web 应用,应付着大约十来个的并发用户,却使用着一个 100 连接数的连接池。这会对你的数据库造成极其不必要的负担。

请注意

连接池的大小最终与系统特性相关。比如一个混合了长事务和短事务的系统,通常是任何连接池都难以进行调优的。

最好的办法是创建两个连接池,一个服务于长事务,一个服务于短事务。

再例如一个系统执行一个任务队列,只允许一定数量的任务同时执行,此时并发任务数应该去适应连接池连接数,而不是反过来。

作者:kelgon

编辑:陶家龙

出处:https://www.jianshu.com/p/a8f653fc0c54

责任编辑:武晓燕 来源: 知乎
相关推荐

2020-08-06 11:25:29

数据库链接池线程

2024-07-30 14:26:52

2011-03-21 10:13:31

Sql Server数分区

2024-06-05 11:23:14

2022-09-19 08:41:02

数据查询分离

2023-09-27 08:21:00

查询分离数据API

2024-05-28 08:47:52

2022-09-27 08:40:44

慢查询MySQL定位优化

2022-07-05 10:50:31

数据库查询实战

2022-06-30 19:40:36

查询接口索引优化

2024-08-30 09:31:36

2013-08-07 10:24:24

JDBC链接池

2014-01-09 09:35:26

2010-06-30 10:37:55

MS-SQL Serv

2010-07-22 13:59:14

MS SQL Serv

2022-08-14 14:32:06

接口优化

2024-06-04 10:37:06

2024-11-29 07:42:47

2022-09-20 10:41:32

接口优化网络

2024-06-13 09:17:41

点赞
收藏

51CTO技术栈公众号