遇到这个问题,网上有很多解决方案了。唯一有效的是设置这两个参数,这两参数是跟tcp链接有关,一个是导出(读),一个是导入(写)的时间,单位为秒,我这设1800秒=30分钟。
net_read_timeout:1800
net_write_timeout:1800
max_allowed_packet = 1000M
(出现这个bug的原因是:dump端出来的数据如果(server)接收端,来不级接收,则会存到内存,如果存在内存的时间超过 net_read_timeout 则会报 lost connection)
当然经过上述优化后,导出不再报 lost connection了。但导出还是很慢,2千万数据,要40分钟左右。
我觉得还是挺慢,我的导出shell脚本是这样:
/usr/local/mysql/bin/mysqldump -u$db_user -p$db_password -h$db_host -P$db_port --skip-add-locks --no-tablespaces $db_name | gzip >$backup_dir/${db_name}_$date.sql.gz
一边导出,一边压缩。
我改成这样,先导出,再压缩。(空间换时间)
/usr/local/mysql/bin/mysqldump -u$db_user -p$db_password -h$db_host -P$db_port --skip-add-locks --no-tablespaces $db_name>$backup_dir/${db_name}_$date.sql
#对备份进行压缩,这个命令会自动生成GZ,删除原sql:
gzip $backup_dir/${db_name}_$date.sql
经过上述优化后,导出暂时没有遇到问题了。
补充:这里遇到的坑是改了配置,只是重载配置,竟然不生效。
最后我通过 重启 来解决。
无论如何,都要去mysql 验证下,改的配置生效了嘛,不然浪费好多时间来排查问题。