转载:http://www.higis.org/2012/04/23/python-ubuntu-mysql-databack/
在Ubuntu服务器上部署了python的监控脚本后,今天继续数据及mysql备份的实现。今天一天手机就准时收到了服务器发来的邮件,报告内存及硬盘等信息,发现512的内存还真是比较吃力,使用内存一会就跑到了400多M.还想着看能否再跑个mongodb…,看来真是得好好再研究下了,虽然看了看说mongodb也能减小性能为代价而减少内存的使用,具体等django搞定再说。再说今天需要搞定的就是python继续实现数据的定时备份和mysql的备份,这个是必须的。vps虽然有Raid10什么的,但毕竟不是随手放着的硬盘,即使放身边的硬盘也说不定啥时候掉地上摔坏了(我的第一个移动硬盘就是这样被摔报销的-_-),另外其它一些不可预知的风险还是需要我们做好万全的掌握,每天备份数据,每周可以考虑上传一份备份到邮箱。
以下为python实现数据备份及mysql,都使用了gzip进行了压缩,毕竟空间也不是很大,得省着点花。技术难点上没有什么难点,主要还是os.system调用命令来实现,然后通过crontab来进行计划任务调用。代码如下:
# -*- coding:utf-8 -*-
__author__
=
'hjcook'
__blogurl__
=
'http://www.higis.org'
import
time,os
WEBROOT
=
'****'
WEBBACKROOT
=
'****'
FILEFORMAT
=
'%Y%m%d%H%M'
DBUSER
=
'root'
DBPASS
=
'****'
DBNAME
=
'****'
DBBACKROOT
=
'****'
BACKITEMS
=
[
'sudo tar -zcvf '
+
WEBBACKROOT
+
'blog'
+
time.strftime(FILEFORMAT)
+
".tar.gz "
+
WEBROOT,
"sudo mysqldump -u%s -p%s --opt %s |gzip >%s"
%
(DBUSER,DBPASS,DBNAME,DBBACKROOT
+
'db'
+
time.strftime(FILEFORMAT)
+
'.gz'
)
]
def
backData():
try
:
for
item
in
BACKITEMS:
item
os.system(item)
except
RuntimeError,e:
str
(e)
if
__name__
=
=
"__main__"
:
backData()