前言:
在常用开发中一般我们会经常使用sqlyog或者navicat可视化工具对数据库进行CRUD、导入导出操作,但是当数据库表中的数据量非常庞大的时候,就会产生导入导出效率低下的问题,此时我们可以尝试使用以下方法进行导入导出,亲测效率可以大大提升。
reason:在使用可视化工具进行导入导出的时候,其实是一条一执行,每一条数据commit一次。在使用mysqldump方式的时候,会几百甚至上千条commit一次,所以在数据量庞大的情况下会大大提升导入导出效率。
数据库表导出:
mysqldump -u用户名 -p密码 --databases "数据库名" | gzip > "目标导出文件名.sql.gz"
数据库表的导入:
1. 解压.sql.gz文件
gunzip -c ".sql.gz压缩文件名" > "目标.sql文件名"
2. 登陆进入MySQL数据库
mysql -u用户名 -p密码
3. 选择使用的数据库
use '数据库名';
4. 输入SQL命令
source '解压后的.sql文件在linux上的全路径';
5. 以下为数据导入过程截图
6. 出现 mysql> 表示数据导入成功