实战!聊聊如何解决MySQL深分页问题

数据库 MySQL
我们日常做分页需求时,一般会用limit实现,但是当偏移量特别大的时候,查询效率就变得低下。本文将分四个方案,讨论如何优化MySQL百万数据的深分页问题,并附上最近优化生产慢SQL的实战案例。

[[425646]]

前言

大家好,我是捡田螺的小男孩。(求个星标置顶)

我们日常做分页需求时,一般会用limit实现,但是当偏移量特别大的时候,查询效率就变得低下。本文将分四个方案,讨论如何优化MySQL百万数据的深分页问题,并附上最近优化生产慢SQL的实战案例。

limit深分页为什么会变慢?

先看下表结构哈:

  1. CREATE TABLE account ( 
  2.   id int(11) NOT NULL AUTO_INCREMENT COMMENT '主键Id'
  3.   name varchar(255) DEFAULT NULL COMMENT '账户名'
  4.   balance int(11) DEFAULT NULL COMMENT '余额'
  5.   create_time datetime NOT NULL COMMENT '创建时间'
  6.   update_time datetime NOT NULL ON UPDATE CURRENT_TIMESTAMP COMMENT '更新时间'
  7.   PRIMARY KEY (id), 
  8.   KEY idx_name (name), 
  9.   KEY idx_update_time (update_time) //索引 
  10. ) ENGINE=InnoDB AUTO_INCREMENT=1570068 DEFAULT CHARSET=utf8 ROW_FORMAT=REDUNDANT COMMENT='账户表'

假设深分页的执行SQL如下:

  1. select id,name,balance from account where update_time> '2020-09-19' limit 100000,10; 

这个SQL的执行时间如下:

执行完需要0.742秒,深分页为什么会变慢呢?如果换成 limit 0,10,只需要0.006秒哦

我们先来看下这个SQL的执行流程:

  1. 通过普通二级索引树idx_update_time,过滤update_time条件,找到满足条件的记录ID。
  2. 通过ID,回到主键索引树,找到满足记录的行,然后取出展示的列(回表)
  3. 扫描满足条件的100010行,然后扔掉前100000行,返回。

SQL的执行流程

执行计划如下:

SQL变慢原因有两个:

  1. limit语句会先扫描offset+n行,然后再丢弃掉前offset行,返回后n行数据。也就是说limit 100000,10,就会扫描100010行,而limit 0,10,只扫描10行。
  2. limit 100000,10 扫描更多的行数,也意味着回表更多的次数。

通过子查询优化

因为以上的SQL,回表了100010次,实际上,我们只需要10条数据,也就是我们只需要10次回表其实就够了。因此,我们可以通过减少回表次数来优化。

回顾B+ 树结构

那么,如何减少回表次数呢?我们先来复习下B+树索引结构哈~

InnoDB中,索引分主键索引(聚簇索引)和二级索引

  • 主键索引,叶子节点存放的是整行数据
  • 二级索引,叶子节点存放的是主键的值。

把条件转移到主键索引树

如果我们把查询条件,转移回到主键索引树,那就可以减少回表次数啦。转移到主键索引树查询的话,查询条件得改为主键id了,之前SQL的update_time这些条件咋办呢?抽到子查询那里嘛~

子查询那里怎么抽的呢?因为二级索引叶子节点是有主键ID的,所以我们直接根据update_time来查主键ID即可,同时我们把 limit 100000的条件,也转移到子查询,完整SQL如下:

  1. select id,name,balance FROM account where id >= (select a.id from account a where a.update_time >= '2020-09-19' limit 100000, 1) LIMIT 10; 

查询效果一样的,执行时间只需要0.038秒!

我们来看下执行计划

由执行计划得知,子查询 table a查询是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主键ID,省去了回表操作,然后第二查询直接根据第一个查询的 ID往后再去查10个就可以了!

因此,这个方案是可以的~

INNER JOIN 延迟关联

延迟关联的优化思路,跟子查询的优化思路其实是一样的:都是把条件转移到主键索引树,然后减少回表。不同点是,延迟关联使用了inner join代替子查询。

优化后的SQL如下:

  1. SELECT  acct1.id,acct1.name,acct1.balance FROM account acct1 INNER JOIN (SELECT a.id FROM account a WHERE a.update_time >= '2020-09-19' ORDER BY a.update_time LIMIT 100000, 10) AS  acct2 on acct1.id= acct2.id; 

查询效果也是杠杆的,只需要0.034秒

执行计划如下:

查询思路就是,先通过idx_update_time二级索引树查询到满足条件的主键ID,再与原表通过主键ID内连接,这样后面直接走了主键索引了,同时也减少了回表。

标签记录法

limit 深分页问题的本质原因就是:偏移量(offset)越大,mysql就会扫描越多的行,然后再抛弃掉。这样就导致查询性能的下降。

其实我们可以采用标签记录法,就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。

假设上一次记录到100000,则SQL可以修改为:

  1. select  id,name,balance FROM account where id > 100000 order by id limit 10; 

这样的话,后面无论翻多少页,性能都会不错的,因为命中了id索引。但是这种方式有局限性:需要一种类似连续自增的字段。

使用between...and...

很多时候,可以将limit查询转换为已知位置的查询,这样MySQL通过范围扫描between...and,就能获得到对应的结果。

如果知道边界值为100000,100010后,就可以这样优化:

  1. select  id,name,balance FROM account where id between 100000 and 100010 order by id; 

手把手实战案例

我们一起来看一个实战案例哈。假设现在有表结构如下,并且有200万数据.

  1. CREATE TABLE account ( 
  2.  id varchar(32) COLLATE utf8_bin NOT NULL COMMENT '主键'
  3.  account_no varchar(64) COLLATE utf8_bin NOT NULL DEFAULT '' COMMENT '账号' 
  4.  amount decimal(20,2) DEFAULT NULL COMMENT '金额' 
  5.  type varchar(10) COLLATE utf8_bin DEFAULT NULL COMMENT '类型A,B' 
  6.  create_time datetime DEFAULT NULL COMMENT '创建时间'
  7.  update_time datetime DEFAULT NULL COMMENT '更新时间'
  8.  PRIMARY KEY (id), 
  9.  KEY `idx_account_no` (account_no), 
  10.  KEY `idx_create_time` (create_time) 
  11.  ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COLLATE=utf8_bin COMMENT='账户表'  

业务需求是这样:获取最2021年的A类型账户数据,上报到大数据平台。

一般思路的实现方式

很多伙伴接到这么一个需求,会直接这么实现了:

  1. //查询上报总数量 
  2. Integer total = accountDAO.countAccount(); 
  3.  
  4. //查询上报总数量对应的SQL 
  5. <select id ='countAccount' resultType="java.lang.Integer"
  6.   seelct count(1)  
  7.   from account 
  8.   where create_time >='2021-01-01 00:00:00' 
  9.   and  type ='A' 
  10. </select
  11.  
  12. //计算页数 
  13. int pageNo = total % pageSize == 0 ? total / pageSize : (total / pageSize + 1); 
  14.  
  15. //分页查询,上报 
  16. for(int i = 0; i < pageNo; i++){ 
  17.  List<AcctountPO> list = accountDAO.listAccountByPage(startRow,pageSize); 
  18.  startRow = (pageNo-1)*pageSize; 
  19.  //上报大数据 
  20.  postBigData(list); 
  21.   
  22. //分页查询SQL(可能存在limit深分页问题,因为account表数据量几百万) 
  23. <select id ='listAccountByPage' > 
  24.   seelct *  
  25.   from account 
  26.   where create_time >='2021-01-01 00:00:00' 
  27.   and  type ='A' 
  28.   limit #{startRow},#{pageSize} 
  29. </select

 实战优化方案

以上的实现方案,会存在limit深分页问题,因为account表数据量几百万。那怎么优化呢?

其实可以使用标签记录法,有些伙伴可能会有疑惑,id主键不是连续的呀,真的可以使用标签记录?

当然可以,id不是连续,我们可以通过order by让它连续嘛。优化方案如下:

  1. //查询最小ID 
  2. String  lastId = accountDAO.queryMinId(); 
  3.  
  4. //查询最大ID对应的SQL 
  5. <select id="queryMinId" returnType=“java.lang.String”> 
  6. select MIN(id)  
  7. from account 
  8. where create_time >='2021-01-01 00:00:00' 
  9. and type ='A' 
  10. </select
  11.  
  12. //一页的条数 
  13. Integer pageSize = 100; 
  14.  
  15. List<AcctountPO> list ; 
  16. do{ 
  17.    list = listAccountByPage(lastId,pageSize); 
  18.    //标签记录法,记录上次查询过的Id 
  19.    lastId = list.get(list,size()-1).getId(); 
  20.     //上报大数据 
  21.     postBigData(list); 
  22. }while(CollectionUtils.isNotEmpty(list)); 
  23.  
  24. <select id ="listAccountByPage"
  25.   select *  
  26.   from account  
  27.   where create_time >='2021-01-01 00:00:00' 
  28.   and id > #{lastId} 
  29.   and type ='A' 
  30.   order by id asc   
  31.   limit #{pageSize} 
  32. </select

本文转载自微信公众号「捡田螺的小男孩」,可以通过以下二维码关注。转载本文请联系捡田螺的小男孩公众号。

 

责任编辑:武晓燕 来源: 捡田螺的小男孩
相关推荐

2021-11-09 10:20:15

MySQL深分页数据库

2021-09-27 13:33:03

MySQL深分页数据库

2024-12-05 09:06:58

2010-10-27 15:40:14

oracle分页查询

2023-10-30 18:35:47

MySQL主从延时

2021-10-20 20:27:55

MySQL死锁并发

2011-08-08 10:29:12

MySQL

2012-09-05 11:09:15

SELinux操作系统

2010-04-29 17:46:31

Oracle死锁

2011-03-15 13:30:27

IBatis.netMySQL

2013-05-21 10:49:59

Windows硬件冲突

2017-07-20 07:30:16

大数据数据互联网

2024-10-29 16:41:24

SpringBoot跨域Java

2021-03-08 08:16:42

MySQL分离架构

2010-10-08 11:41:38

PHP连接MYSQL

2011-05-11 13:48:31

MySQLWeb

2011-06-16 14:12:30

Qt Mysql 驱动

2024-11-21 16:47:55

2011-03-23 14:42:47

CPU过度消耗

2011-08-29 10:34:00

网络安全云安全云计算
点赞
收藏

51CTO技术栈公众号