2006报错的更笨原因是大sql 文件导入数据库
使用命令行,或者使用navicat 将一个17g 的文件导入是报错;
解决方式
常用方式
文件过大,默认的是16M,
show global variables like ‘max_allowed_packet’;
文件超过的话,临时用的话就
set global max_allowed_packet=1024102416;
要是想永久的话就修改配置文件,修改完重启
我的方式
本人使用navicat 的工具,数据同步机制搞定的
挑战方式
将大文件分成小文件,再导入
MySQL快速导入千万级别的大数据量sql文件
后续还得用分库分表的方式,避免大数据产生。