Mysql LIMIT如何正确对其进行优化

数据库 MySQL
我们今天主要和大家分享的是Mysql LIMIT简单介绍以及如何进行优化的相关内容的描述,以下就是正文的主要内容描述。

以下的文章主要是对Mysql LIMIT简单介绍,我们大家都知道LIMIT子句一般是用来限制SELECT语句返回的实际行数。LIMIT取1个或是2个数字参数,如果给定的是2个参数,***个指定要返回的***行的偏移量,第二个指定返回行的***数目。

初始行的偏移

量是0(不是1)。

  1. mysql> select * from table LIMIT 6,10;  

得到第7-16行

如果给定一个参数,它指出返回行的***数目。

 

  1. mysql> select * from table LIMIT 5; 

 得到前5行

换句话说,LIMIT n等价于Mysql LIMIT 0,n。MYSQL的优化是非常重要的。其他最常用也最需要优化的就是limit。mysql的limit给分页带来了极大的方便,但数据量一大的时候,limit的性能就急剧下降。同样是取10条数据

  1. select * from yanxue8_visit limit 10000,10 

 

  1. select * from yanxue8_visit limit 0,10 

就不是一个数量级别的。

网上也很多关于limit的五条优化准则,都是翻译自mysql手册,虽然正确但不实用。今天发现一篇文章写了些关于limit优化的,很不错。原文地址:http://www.zhenhua.org/article.asp?id=200(下面附有原文)

文中不是直接使用limit,而是首先获取到offset的id然后直接使用Mysql limit size来获取数据。根据他的数据,明显要好于直接使用limit。这里我具体使用数据分两种情况进行测试。(测试环境win2033+p4双核(3GHZ) +4G内存 mysql 5.0.19)

1、offset比较小的时候。

  1. select * from yanxue8_visit limit 10,10 

多次运行,时间保持在0.0004-0.0005之间

  1. Select * From yanxue8_visit Where vid >=(  
  2. Select vid From yanxue8_visit Order By vid limit 10,1  
  3. ) limit 10 

多次运行,时间保持在0.0005-0.0006之间,主要是0.0006结论:偏移offset较小的时候,直接使用limit较优。这个显然是子查询的原因。

2、offset大的时候

  1. select * from yanxue8_visit limit 10000,10 

多次运行,时间保持在0.0187左右

  1. Select * From yanxue8_visit Where vid >=(  
  2. Select vid From yanxue8_visit Order By vid limit 10000,1  
  3. ) limit 10 

多次运行,时间保持在0.0061左右,只有前者的1/3。可以预计offset越大,后者越优。

附上原文:

select * from table LIMIT 5,10; #返回第6-15行数据

select * from table LIMIT 5; #返回前5行

select * from table LIMIT 0,5; #返回前5行

性能优化:

基于MySQL5.0中Mysql limit的高性能,我对数据分页也重新有了新的认识.

  1. Select * From cyclopedia Where ID>=(  
  2. Select Max(ID) From (  
  3. Select ID From cyclopedia Order By ID limit 90001  
  4. ) As tmp  
  5. ) limit 100;  
  6. Select * From cyclopedia Where ID>=(  
  7. Select Max(ID) From (  
  8. Select ID From cyclopedia Order By ID limit 90000,1  
  9. ) As tmp  
  10. ) limit 100;  

同样是取90000条后100条记录,第1句快还是第2句快?

第1句是先取了前90001条记录,取其中***一个ID值作为起始标识,然后利用它可以快速定位下100条记录

第2句择是仅仅取90000条记录后1条,然后取ID值作起始标识定位下100条记录

第1句执行结果.100 rows in set (0.23) sec

第2句执行结果.100 rows in set (0.19) sec

很明显第2句胜出.看来limit好像并不完全像我之前想象的那样做全表扫描返回limit offset+length条记录,这样看来limit比起MS-SQL的Top性能还是要提高不少的.

其实第2句完全可以简化成

 

  1. Select * From cyclopedia Where ID>=(  
  2. Select ID From cyclopedia limit 90000,1  
  3. )limit 100; 

直接利用第90000条记录的ID,不用经过Max运算,这样做理论上效率因该高一些,但在实际使用中几乎看不到效果,因为本身定位ID返回的就是1条记录,Max几乎不用运作就能得到结果,但这样写更清淅明朗,省去了画蛇那一足.

可是,既然MySQL有limit可以直接控制取出记录的位置,为什么不干脆用Select * From cyclopedia limit 90000,1呢?岂不更简洁?

这样想就错了,试了就知道,结果是:1 row in set (8.88) sec,怎么样,够吓人的吧,让我想起了昨天在4.1中比这还有过之的"高分".Select * ***不要随便用,要本着用什么,选什么的原则, Select的字段越多,字段数据量越大,速度就越慢. 上面2种分页方式哪种都比单写这1句强多了,虽然看起来好像查询的次数更多一些,但实际上是以较小的代价换取了高效的性能,是非常值得的.

第1种方案同样可用于MS-SQL,而且可能是***的.因为靠主键ID来定位起始段总是最快的.

 

  1. Select Top 100 * From cyclopedia Where ID>=(  
  2. Select Top 90001 Max(ID) From (  
  3. Select ID From cyclopedia Order By ID  
  4. ) As tmp  
  5. )  

但不管是实现方式是存贮过程还是直接代码中,瓶颈始终在于MS-SQL的TOP总是要返回前N个记录,这种情况在数据量不大时感受不深,但如果成百上千万,效率肯定会低下的.相比之下MySQL的Mysql limit就有优势的多,执行:

  1. Select ID From cyclopedia limit 90000  
  2. Select ID From cyclopedia limit 90000,1 


而MS-SQL只能用Select Top 90000 ID From cyclopedia 执行时间是390ms,执行同样的操作时间也不及MySQL的360ms.

 【编辑推荐】

  1. Mysql安装与qmail实际操作概述
  2. 建立MySQL镜像数据库在linux下的简单方案
  3. MySQL 数据库的双机热备实际操作配置
  4. MySQL 安装备份在Linux系统中的安装
  5. 解决MySQL中文乱码的方法归纳
责任编辑:佚名 来源: 博客园
相关推荐

2010-08-19 13:50:42

DB2catalog

2023-02-26 23:43:43

MySQL数据库分页查询

2010-02-02 14:11:14

Python 进行编程

2010-06-01 16:35:43

MySQL数据库

2023-01-30 08:30:09

Tomcat性能优化

2010-07-08 10:14:57

SQLServer日志

2010-05-07 16:50:42

Oracle trun

2010-05-07 12:27:11

Oracle data

2010-01-19 17:32:03

VB.NET流

2010-11-25 10:12:02

MySQL查询优化

2010-04-19 17:09:30

Oracle sql

2016-09-13 19:51:01

移动应用图片流量优化

2010-05-11 08:58:22

mysql表字段

2010-08-31 08:57:02

谷歌即时搜索功能

2010-02-22 10:06:17

Python调用

2010-02-03 14:15:18

Python 开发

2022-09-16 13:26:49

云计算云迁移数据

2022-06-06 06:10:00

密码验证安全

2010-02-22 14:13:38

安装Python

2010-10-13 16:31:18

优化MySQL查询
点赞
收藏

51CTO技术栈公众号