navicat导出sql文件的小技巧,导入sql更快

原创 2016年05月31日 21:12:30

这里介绍的是mysql 相同服务器类型数据传输的高级设置

选中数据库后右键“ 转储SQL文件”默认导出的记录格式是一条条的,采用的是”完整插入语句”,格式如下

INSERT INTO `用户` (`ID 编号`, `用户名`, `年龄`) VALUES ('1', '梁明洁', '23');
INSERT INTO `用户` (`ID 编号`, `用户名`, `年龄`) VALUES ('2', '邱礼安', '56'); 
INSERT INTO `用户` (`ID 编号`, `用户名`, `年龄`) VALUES ('0', '许勤', '23');

这种格式保证了兼容性,但是牺牲了性能。在服务器使用 source 导入,简直龟速。

如果导出成如下格式就可以快很多:

INSERT INTO `用户` VALUES ('1', '梁明洁', '23'), ('2', '邱礼安', '56'), ('0', '许勤', '23');

这种格式叫做”拓展插入语句”具体使用如下,

选中数据库后,右键 –“数据传输”-选择导出为文件
这里写图片描述
点击“高级”-勾选“使用扩展插入语句”(有需要的话也可以勾掉“使用事务)
这里写图片描述

参考资料

https://www.navicat.com.cn/manual/online_manual/cn/navicat/win_manual/index.html

这里写图片描述

版权声明:本文为博主原创文章,未经博主允许不得转载。 举报

相关文章推荐

navicat 导出向导 , 通过Excel生成批量SQL语句,处理大量数据

如果要改一个数据量很大的表格的某些字段,可以先将这个表格的数据导出来,导成excel 形式: 工具:navicat formysql     数据库:mysql 1. 2. 3. ...

mysql笔记02:source命令导入大数据速度慢优化

XX市邮政微商城的项目数据库,300多M,约220万条数据,source命令导入花了20个小时左右,太不可思议。 速度慢原因:220多万条数据,就 insert into 了220多万次,下图: ...
  • lzding
  • lzding
  • 2015-10-18 20:22
  • 2638

我是如何成为一名python大咖的?

人生苦短,都说必须python,那么我分享下我是如何从小白成为Python资深开发者的吧。2014年我大学刚毕业..

Navicat 的导入导出功能 真的很烂

最近需要用Navicat导入用Navicat导出的数据库文件(sql)格式, 发现真的很烂,37M的sql文件要导入3个小时啊,我干... 但是没办法这个数据是用Navicat导出来的,由于编码的原因...

MySQL使用Navicat导出数据,数据会被减少

通过Navicat导出MySQL的表数据时,如果是通过右键-导出向导的方式导出数据,会出现导出的条数跟数据库里查询到的条数不一致,亲测试条数会少,都是使用的默认设置的方式导出的。下图为导出向导的方式截...

Navicat 导入sql脚本文件

Navicat 导入sql脚本文件我在组建自己工作用的数据库时要导入.sql脚本文件,用cmd窗口导入太慢,navicat的导入向导里又无导入sql脚本的选项,但不是navicat中没有导入sql脚本...

Sed与AWK入门教程之Sed篇

Sed和AWK是*nix命令行里面文本处理的神器,相当的强大.它们都是面向行的,或者说它们处理文本的方式都是一行接着一行的处理,从标准输入或者文件中读取内容,一行一行的执行脚本命令,然后打印输出到标准...

关于批量插入数据之我见(100万级别的数据,mysql)

100万数据的插入操作

awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行各种分析处理。

简介 awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分...

MySQL批量SQL插入性能优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,每天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。因此,优化数据库插入性能是很有意义的。...
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)