我的网站不含数据库,容量早已超过百G以上。试了很多次wdcp后台的网站备份都因为太大而超时、假死而无功而返。于是想到了用ssh直接进行打包压缩,无奈ssh打包压缩的漫长等待让人真不敢走开,生怕网络突然中断而前功尽弃。晚上在网上瞎转突然看到了一条screen命令不禁让人喜出望外,立马登陆ssh一试身手果然非常的爽,哈哈终于可以睡个安稳觉了,让它慢慢的去备份吧。下面说说这个非常简单的操作方法,它的原理其实就是用screen命令开了一个装口,这个窗口是独立运行的,不受其他程序的干扰,就算你关掉ssh他依旧在运行,直到你进入这个窗口将其关闭为止:

1、我们的wdcp因为没有安装screen,所以第一步先安装screen:
 
# yum install screen
 
安装后期提示Y or N,键入Y回车后,安装成功。
 
2、运行screen
 
# screen -S tar
 
运行后窗口会闪动几下,出现命令行提示符,现在可以打包压缩了。
 
3、运行打包
注意,我的网站放在home目录下的web目录,打包压缩后将放进网站的备份目录:/home/backup/web.tar.gz
 
# tar -zcvf /home/backup/web.tar.gz  /home/web/*
 
执行后,你会看到ssh窗口内被压缩的数据飞快的滚动,说明已经开始工作了,现在我们可以离开干点其他事了:
 
4、用快捷键Ctrl+a d(即按住Ctrl,依次再按a,d),就可以离开这个窗口了,是不是滚动的数据不见了?呵呵。大胆的关掉ssh吧。
 
5、如果中途想看看怎么办?登陆ssh后,运行:
 
# screen -r tar
 
即可进入该窗口查看,如果已经压缩完毕,输入:
 
# exit
 
这时提示:[screen is terminating],表示已经成功退出screen会话,任务结束。
 
最后请教坛主是否能将该脚本编入自定义计划任务,用来自动备份网站呢?