MySQL数据清理的需求分析和改进

数据库 MySQL
昨天帮一个朋友看了MySQL数据清理的问题,感觉比较有意思,具体的实施这位朋友还在做,已经差不多了,我就发出来大家一起参考借鉴下。

[[210006]]

昨天帮一个朋友看了MySQL数据清理的问题,感觉比较有意思,具体的实施这位朋友还在做,已经差不多了,我就发出来大家一起参考借鉴下。

为了保证信息的敏感,里面的问题描述可能和真实情况不符,但是问题的处理方式是真实的。

首先这位朋友在昨天下午反馈说他有一个表大小是近600G,现在需要清理数据,只保留近几个月的数据。按照这个量级,我发现这个问题应该不是很好解决,得非常谨慎才对。如果是通用的思路和方法,我建议是使用冷热数据分离的方式。大体有下面的几类玩法:

exchange partition,这是亮点的特性,可以把分区数据和表数据交换,效率还不错。

rename table,这是MySQL归档数据的一大利器,在其他商业数据库里很难实现。

但是为了保险起见,我说还是得看看表结构再说。结果看到表结构,我发现这个问题和我预想的完全不一样。

这个表的ibd文件大概是600G,不是分区表,InnoDB存储引擎。字段看起来也不多。需要根据时间字段update_time抽取时间字段来删除数据。

 

我看了下这个表结构,字段不多,除了索引的设计上有些冗余外,直接看不到其他的问题,但是根据数据的存储情况来看,我发现这个问题有些奇怪。不知道大家发现问题没有。

这个表的主键是基于字段id,而且是主键自增,这样来看,如果要存储600G的数据,表里的数据量至少得是亿级别。但是大家再仔细看看自增列的值,会发现只有150万左右。这个差别也实在太大了。

为了进一步验证,我让朋友查询一下这个表的数据量,早上的时候他发给了我***的数据,一看更加验证了我的猜想。

  1. mysql> select max(Id) from test_data; 
  2.  
  3. +---------+ 
  4.  
  5. max(Id) | 
  6.  
  7. +---------+ 
  8.  
  9. | 1603474 | 
  10.  
  11. +---------+ 
  12.  
  13. 1 row in set (0.00 sec) 

 

现在的问题很明确,表里的数据不到200万,但是占用的空间近600G,这个存储比例也实在太高了,或者说碎片也实在太多了吧。

按照这个思路来想,自己还有些成就感,发现这么大的一个问题症结,如果数据没有特别的存储,200万的数据其实也不算大,清理起来还是很容易的。

朋友听了下觉得也有道理,从安全的角度来说,只是需要注意一些技巧而已,但是没过多久,他给我反馈,说表里的数据除过碎片,大概也有100多G,可能还有更多。这个问题和我之前的分析还是有一些冲突的。至少差别没有这么大。200万的数据量,基本就在1G以内。但是这里却是100多个G,远远超出我的预期。

  1. mysql> select round(sum(data_length+index_length)/1024/1024) as total_mb, 
  2.  
  3. -> round(sum(data_length)/1024/1024) as data_mb, 
  4.  
  5. -> round(sum(index_length)/1024/1024) as index_mb 
  6.  
  7. -> from information_schema.tables where table_name='hl_base_data'
  8.  
  9. +----------+---------+----------+ 
  10.  
  11. | total_mb | data_mb | index_mb | 
  12.  
  13. +----------+---------+----------+ 
  14.  
  15. | 139202 | 139156 | 47 | 
  16.  
  17. +----------+---------+----------+ 
  18.  
  19. 1 row in set (0.00 sec) 

 

这个问题接下来该怎么解释呢。我给这位朋友说,作为DBA,不光要对物理的操作要熟练,还要对数据需要保持敏感。

怎么理解呢,update_time没有索引,id是主键,我们完全可以估算数据的变化情况。

怎么估算呢,如果大家观察仔细,会发现两次提供的信息相差近半天,自增利的值相差是大概4000左右。一天的数据变化基本是1万。

现在距离10月1日已经有24天了,就可以直接估算出数据大概是在1363474附近。

  1. mysql> select current_date-'20171001'
  2.  
  3. +-------------------------+ 
  4.  
  5. current_date-'20171001' | 
  6.  
  7. +-------------------------+ 
  8.  
  9. | 24 | 
  10.  
  11. +-------------------------+ 
  12.  
  13. 1 row in set (0.00 sec) 

 

按照这个思路,我提供了语句给朋友,他一检查,和我初步的估算值差不了太多。

  1. mysql> select id , create_time ,update_time from test_data where id=1363474; 
  2.  
  3. +---------+---------------------+---------------------+ 
  4.  
  5. | id | create_time | update_time | 
  6.  
  7. +---------+---------------------+---------------------+ 
  8.  
  9. | 1363474 | 2017-09-29 10:37:29 | 2017-09-29 10:37:29 | 
  10.  
  11. +---------+---------------------+---------------------+ 
  12.  
  13. 1 row in set (0.07 sec) 

 

简单调整一下,就可以完全按照id来过滤数据来删除数据了,这个过程还是建议做到批量的删除,小步快进 。

前提还是做好备份,然后慢慢自动化完成。 

责任编辑:庞桂玉 来源: 杨建荣的学习笔记
相关推荐

2021-10-26 09:34:42

数据库工具技术

2017-12-17 22:16:58

2012-03-21 09:31:51

ibmdw

2022-10-18 11:47:08

数据分析运营直播

2023-12-21 13:02:25

Linux系统Ubuntu

2017-08-15 17:34:26

安全运营安全分析网络安全

2023-09-18 16:14:35

性能测试开发

2024-06-24 21:18:48

2009-03-18 11:06:56

8020法则需求分析

2024-11-05 08:00:00

数据转换数据预处理Python

2019-11-04 18:52:04

Gartner数字化分析

2024-08-26 14:54:54

2011-02-21 14:44:03

2011-06-20 17:33:14

需求分析

2019-05-08 08:00:49

增强分析数据科学分析技术

2022-04-06 17:48:44

数据分析梳理数据业务

2011-07-20 16:43:33

iPhone Bug Xcode

2011-09-27 10:25:46

数据中心服务器

2013-01-31 14:34:48

SolidWorks用户需求功能

2023-02-08 07:44:56

Pandas数据分析
点赞
收藏

51CTO技术栈公众号