mysql数据库怎样实现亿级数据快速清理

60次阅读
没有评论

共计 1234 个字符,预计需要花费 4 分钟才能阅读完成。

自动写代码机器人,免费开通

这篇文章给大家分享的是有关 mysql 数据库怎样实现亿级数据快速清理的内容。丸趣 TV 小编觉得挺实用的,因此分享给大家做个参考,一起跟随丸趣 TV 小编过来看看吧。

今天收到磁盘报警异常,50G 的磁盘被撑爆了,分析解决过程如下:

1. 进入 linux 服务器,查看 mysql 文件夹中各个数据库所占的磁盘空间大小

看到了吗,光 olderdb 就占了 25G

2. 用 SQLyog 登录 mysql 数据库,查看数据库各个表的占用空间情况

SELECT CONCAT(table_schema, . ,table_name) AS  aaa , 
 table_rows AS  Number of Rows , 
 CONCAT(ROUND(data_length/(1024*1024*1024),6),  G ) AS  Data Size , 
 CONCAT(ROUND(index_length/(1024*1024*1024),6),  G ) AS  Index Size  , 
 CONCAT(ROUND((data_length+index_length)/(1024*1024*1024),6),  G ) AS Total  
FROM information_schema.TABLES 
WHERE table_schema LIKE  olderdb

3. 查询主键索引

SHOW INDEX FROM orbit

采取策略

前提:目前需要删除 80% 的数据

① delete 语句

我们知道 delete 语句的删除速度与索引量成正比,此表中的索引量已经很大了,而且数据量非常之巨大,若采用常规 delete 语句删除,必定会话费几天的时间。

Delete 语句删除不会释放出磁盘空间,所以肯定还是会出现报警,所以此种方式不可取。

② drop 掉表

新建结构相同的表,命名“cc”, 将需要保存的数据插入到此表中,然后 drop 掉老表。

Sql 语句如下:

基于老表新建新表

CREATE TABLE cc LIKE orbit ;

插入数据(几百万的数据量一定要分批插入,一次 30 万 -40 万为最佳,毕竟 mysql 的数据处理能力有限)

按日期查询后插入(每天大概会产生 30 多万数据量,所以采用日期插入)

INSERT INTO cc SELECT * FROM orbit WHERE xttime    2018-04-16 00:00:00  AND xttime = 2018-04-17 00:00:00

结果如下:

可以看到 50 多万的数据量用了不到 5 分钟,还是比较快的。

清理后数据表空间得以释放

然后 drop 掉老表

DROP TABLE orbit

目测只用了 3 秒左右

重命名新表“cc”

ALTER TABLE cc RENAME TO orbit

感谢各位的阅读!关于“mysql 数据库怎样实现亿级数据快速清理”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

向 AI 问一下细节

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-12-04发表,共计1234字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)