首先定时项目我们需要用到 crontab
查看你的定时任务
crontable -l
编辑或者新增你的任务
crontab -e
qianmian qianmian
前面 30 3 * * * 代表服务器时间 每日凌晨3:30分去执行 /var/www/html/beifen.sh 命令 并且把 日志文件写入到 /var/www/html/beifen.log 文件
最后安全退出保存。
我这边用的是ubuntu18
点击esc 在 ctrl + x 然后 他会问你是否需要保存更改 点击 y 最后是默认crontab 文件路径 直接回车。
然后我们就需要写 beifen.sh文件了
直接上代码 最后给解释
#!/bin/bash
cd /var/www/html
service nginx stop
tar -cf b$(date +%Y%m%d).tar b
DUMP=/usr/bin/mysqldump
OUT_DIR=/var/www/html
LINUX_USER=root
DB_NAME=导出的库名
DB_USER=账号
DB_PASS=密码
cd $OUT_DIR
DATE=b`date +%Y%m%d`
OUT_SQL=$DATE.sql
$DUMP -u$DB_USER -p$DB_PASS $DB_NAME --default-character-set=gbk --opt -Q -R --skip-lock-tables>$OUT_SQL
service nginx start
第一行 默认,请不要做修改
第二行代码 目录跳转到 /var/www/html
第三行 让nginx 停止
第四行 先把项目压缩了保存了
第六行 写好 mysql导出模块绝对路径 通常是在 /usr/bin/mysqldump
第七行 写死导出文件绝对路径
第八行 linux使用的账号 一定要用root 或者导出的账号有权限
第九行 库表名
第十行 数据库账号
第十一行 数据库密码
第十二行 进入导出路径
第十三行 导出文件名
第十四行 导出文件名.sql 因为我实际代码里需要用到第十三行变量,所以你懂的。
第十五行 具体的导出命令了
$DUMP -u$DB_USER -p$DB_PASS $DB_NAME --default-character-set=gbk --opt -Q -R --skip-lock-tables>$OUT_SQL
最后一行 nginx 重启
好了,第一部分结束了。我们来验证下导出的sql是否能用
我在查看导出的sql文件 里面有出现乱码问题,这个应该没啥事,当你最后导入到新数据库的时候就不会出现了,我服务器上库表类型是 mb64 本地也需要是相同的 mb64格式
但是在导入的时候又有个问题了,只成功了一部分,还是有部分内容确实了。最后在百度之后 看到大神给到的方法。代码如下:::
navicat 备份数据库,还原备份有时缺失部分数据
命令:
//查看当前max_allowed_packet的大小
show global variables like 'max_allowed_packet';
//修改max_allowed_packet的大小
set global max_allowed_packet=1024*1024*50;
原文链接:https://blog.csdn.net/u010705742/article/details/88424674
然后你再导入一次就可以了。