mysql百万数据迁移_Mysql 百万级数据迁移实战笔记

Mysql 百万级数据迁移实战笔记

背景

上个月跟朋友一起做了个微信小程序, 趁着 5.20 节日的热度, 两个礼拜内迅速积累了一百多万用户, 我们在小程序页面增加了收集 formid 的埋点, 用于给微信用户发送模板消息通知.

这个小程序一开始的后端逻辑是用 http://www.douchat.net 框架写的, 使用框架自带的 dc_mp_fans 表存储微信端授权登录的用户信息, 使用 dc_mp_tempmsg 表存储 formid. 截止到目前, 收集到的数据超过 380 万, 很大一部分 formid 都已经成功使用给用户发送过模板通知, 起到了较好的二次推广的效果.

随着数据量的增大, 之前使用的服务器空间开始有点不够用, 最近新写了一个专门用于做小程序后台开发的框架, 于是想把原来的数据迁移到新系统的数据库. 买了一台 4 核 8G 的机器, 开始做数据迁移. 下面对迁移过程做一个简单的记录.

ab7653affab982b574eb7acc55df2e04.gif

方案选择

mysqldump 迁移

平常开发中, 我们比较经常使用的数据备份迁移方式是用 mysqldump 工具导出一个 sql 文件, 再在新数据库中导入 sql 来完成数据迁移. 试验发现, 通过 mysqldump 导出百万级量的数据库成一个 sql 文件, 大概耗时几分钟, 导出的 sql 文件大小在 1G 左右, 然后再把这个 1G 的 sql 文件通过 scp 命令复制到另一台服务器, 大概也需要耗时几分钟. 在新服务器的数据库中通过 source 命令来导入数据, 我跑了一晚上都没有把数据导入进来, cpu 跑满.

脚本迁移

直接通过命令行操作数据库进行数据的导出和导入是比较便捷的方式, 但是数据量较大的情况下往往会比较耗时, 对服务器性能要求也比较高. 如果对数据迁移时间要求不是很高, 可以尝试写脚本来迁移数据. 虽然没有实际尝试, 但是我想过大概有两种脚本方案.

第一种方式, 在迁移目标服务器跑一个迁移脚本, 远程连接源数据服务器的数据库, 通过设置查询条件, 分块读取源数据, 并在读取完之后写入目标数据库. 这种迁移方式效率可能会比较低, 数据导出和导入相当于是一个同步的过程, 需要等到读取完了才能写入. 如果查询条件设计得合理, 也可以通过多线程的方式启动多个迁移脚本, 达到并行迁移的效果.

第二种方式, 可以结合 redis 搭建一个 "生产 + 消费" 的迁移方案. 源数据服务器可以作为数据生产者, 在源数据服务器上跑一个多线程脚本, 并行读取数据库里面的数据, 并把数据写入到 redis 队列. 目标服务器作为一个消费者, 在目标服务器上也跑一个多线程脚本, 远程连接 redis, 并行读取 redis 队列里面的数据, 并把读取到的数据写入到目标数据库. 这种方式相对于第一种方式, 是一种异步方案, 数据导入和数据导出可以同时进行, 通过 redis 做数据的中转站, 效率会有较大的提升.

可以使用 go 语言来写迁移脚本, 利用其原生的并发特性, 可以达到并行迁移数据的目的, 提升迁移效率.

文件迁移

第一种迁移方案效率太低, 第二种迁移方案编码代价较高, 通过对比和在网上找的资料分析, 我最终选择了通过 mysql 的selectdataintooutfile file.txt

,

load data infile file.txtintotable

的命令, 以导入导出文件的形式完成了百万级数据的迁移.

迁移过程

在源数据库中导出数据文件

select * from dc_mp_fans into outfile '/data/fans.txt';

复制数据文件到目标服务器zip fans.zip/data/fans.txt

scp fans.zip root@ip:/data/

在目标数据库导入文件unzip/data/fans.zip

load data infile'/data/fans.txt'intotable wxa_fans(id,appid,openid,unionid,@dummy,created_at,@dummy,nickname,gender,avatar_url,@dummy,@dummy,@dummy,@dummy,language,country,province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy);

按照这么几个步骤操作, 几分钟内就完成了一个百万级数据表的跨服务器迁移工作.

注意项

mysql 安全项设置

在 mysql 执行 load data infile 和 into outfile 命令都需要在 mysql 开启了 secure_file_priv 选项, 可以通过

show global variables like '%secure%';

查看 mysql 是否开启了此选项, 默认值 Null 标识不允许执行导入导出命令. 通过 vim /etc/my.cnf 修改 mysql 配置项, 将 secure_file_priv 的值设置为空:[mysqld]

secure_file_priv=''

则可通过命令导入导出数据文件.

导入导出的数据表字段不对应

上面示例的从源数据库的 dc_mp_fans 表迁移数据到目标数据库的 wxa_fans 表, 两个数据表的字段分别为:

dc_mp_fans

ab7653affab982b574eb7acc55df2e04.gif

wxa_fans

ab7653affab982b574eb7acc55df2e04.gif

在导入数据的时候, 可以通过设置字段名来匹配目标字段的数据, 可以通过 @dummy 丢弃掉不需要的目标字段数据.

总结

结合本次数据迁移经历, 总结起来就是:

小数据量可以使用 mysqldump 命令进行导入导出, 这种方式简单便捷.

数据量较大, 且有足够的迁移耐心时, 可以选择自己写脚本, 选择合适的并行方案迁移数据, 这种方式编码成本较高.

数据量较大, 且希望能在短时间内完成数据迁移时, 可以通过 mysql 导入导出文件的方式来迁移, 这种方式效率较高.

在新系统展示数据的效果:

ab7653affab982b574eb7acc55df2e04.gif

来源: https://juejin.im/post/5b377aa45188254dd52f40d7

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值