共计 2589 个字符,预计需要花费 7 分钟才能阅读完成。
如何高效的在 Mysql 百万级数据量级下迁移到 Redis,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。
redis 协议学习
协议的格式为:
* 参数数量 \r\n
$ 参数 1 的字节数量 \r\n
参数 1 的数据 \r\n
...
$ 参数 N 的字节数量 \r\n
参数 N 的数据 \r\n
比如:插入一条 hash 类型的数据。
HSET id book1 book_description1
根据 Redis 协议,总共有 4 个部分,所以开头为 *4,其余内容解释如下:
内容长度协议命令 HSET4$4id2$2book15$5book_description117$17
注意一下:HSET 命令本身也作为协议的其中一个参数来发送。
构造出来的协议数据结构:
*4\r\n$4\r\nHSET\r\n$2\r\nid\r\n$5\r\nbook1\r\n$17\r\nbook_description1\r\n
格式化一下:
*4\r\n
$4\r\n
HSET\r\n
$2\r\n
idvvvv\r\n
$5\r\n
book1\r\n
$17\r\n
book_description1\r\n
RESP 协议 bulk
Redis 客户机使用一种称为 RESP (Redis 序列化协议) 的协议与 Redis 服务器通信。
redis-cli pipe 模式需要和 nc 命令一样快,并且解决了 nc 命令不知道何时命令结束的问题。
在发送数据的同时,它同样会去读取响应,尝试去解析。
一旦输入流中没有读取到更多的数据之后,它就会发送一个特殊的 20 比特的 echo 命令,标识最后一个命令已经发送完毕如果在响应结果中匹配到这个相同数据后,说明本次批量发送是成功的。
使用这个技巧,我们不需要解析发送给服务器的协议来了解我们发送了多少命令,只需要解析应答即可。
在解析应答时,redis 会对解析的应答进行一个计数,在最后能够告诉用户大量插入会话向服务器传输的命令的数量。也就是上面我们使用 pipe 模式实际操作的响应结果。
将输入数据源换成 mysql
上面的例子中,我们以一个 txt 文本为输入数据源,使用了 pipe 模式导入数据。
基于上述协议的学习和理解,我们只需要将 mysql 中的数据按照既定的协议通过 pipe 模式导入 Redis 即可。
实际案例 – 从 Mysql 导入百万级数据到 Redis 首先造数据
由于环境限制,所以这里没有用真实数据来实现导入,那么我们就先使用一个存储过程来造一百万条数据把。使用存储过程如下:
DELIMITER $$
USE `cb_mon`$$
DROP PROCEDURE IF EXISTS `test_insert`$$
CREATE DEFINER=`root`@`%` PROCEDURE `test_insert`()
BEGIN
DECLARE i INT DEFAULT 1;
WHILE i = 1000000
DO
INSERT INTO t_book(id,number,NAME,descrition)
VALUES (i, CONCAT( 00000 ,i) , CONCAT(book ,i)
, CONCAT(book_description ,i));
SET i=i+1;
END WHILE ;
COMMIT;
END$$
DELIMITER ;
调用存储过程:
CALL test_insert();
查看表数据:
按协议构造查询语句
按照上述 redis 协议,我们使用如下 sql 来构造协议数据
SELECT
CONCAT(
*4\r\n ,
$ ,
LENGTH(redis_cmd),
\r\n ,
redis_cmd,
\r\n ,
$ ,
LENGTH(redis_key),
\r\n ,
redis_key,
\r\n ,
$ ,
LENGTH(hkey),
\r\n ,
hkey,
\r\n ,
$ ,
LENGTH(hval),
\r\n ,
hval,
\r
)
FROM
(SELECT
HSET AS redis_cmd,
id AS redis_key,
NAME AS hkey,
descrition AS hval
FROM
cb_mon.t_book
) AS t limit 1000000
并将内容保存至 redis.sql 文件中。
编写脚本使用 pipe 模式导入 redis
编写 shell 脚本。由于我在主机上是通过 docker 安装的 redis 和 mysql,以下脚本供参考:
#!/bin/bash
starttime=`date + %Y-%m-%d %H:%M:%S `
docker exec -i 899fe01d4dbc mysql --default-character-set=utf8
--skip-column-names --raw ./redis.sql
| docker exec -i 4c90ef506acd redis-cli --pipe
endtime=`date + %Y-%m-%d %H:%M:%S `
start_seconds=$(date --date= $starttime +%s);
end_seconds=$(date --date= $endtime +%s);
echo 脚本执行耗时:$((end_seconds-start_seconds)) s
执行截图:
可以看到百万级的数据导入 redis,只花费了 7 秒,效率非常高。
注意事项
如果 mysql 表特别大,可以考虑分批导入,或者将表拆分,否则在导入过程中可能会发生
lost connection to mysql server during query
由于 max_allowed_packed 和超时时间限制,查询数据的过程中,可能会造成连接断开,所以在数据表的数据量特别大的时候,需要分页或者将表拆分导入。
小结
redis 单线程执行命令,避免了线程切换所消耗的时间,但是在超大数据量级下,其发送、响应接收的时延不可忽视。
网络 nc 命令的应用场景,及在数据导入时存在的缺点。
redis RESP 协议的理解和应用。
百万量级 Mysql 数据的 Redis 快速导入案例。
看完上述内容,你们掌握如何高效的在 Mysql 百万级数据量级下迁移到 Redis 的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注丸趣 TV 行业资讯频道,感谢各位的阅读!