《构建高可用Linux服务器 第3版》—— 3.6 生产环境下的Shell脚本分类

本节书摘来自华章出版社《构建高可用Linux服务器 第3版》一 书中的第3章,第3.1节,作者:余洪春 ,更多章节内容可以访问云栖社区“华章计算机”公众号查看。

3.6 生产环境下的Shell脚本分类

生产环境下的Shell脚本作用还是挺多的,这里根据3.1节所介绍的日常工作中Shell脚本的作用,将生产环境下的Shell脚本分为备份类、监控类、统计类、开发类和自动化类。前面3类从字面意义上看比较容易理解,后面的我稍微解释一下:开发类脚本是用Shell来配合PHP做一些非系统类的管理工作,比如SVN的发布程序等;而自动化类脚本则利用Shell自动来替我们做一些繁琐的工作,比如自动生成及分配密码给开发组的用户或自动安装LNMP环境等。下面我会就这些分类举一些具体实例,便于大家理解。另外值得说明的一点是,这些实例都源自于我的线上环境,大家拿过来稍微改动一下IP或备份目录基本上就可以使用了。

3.6.1 生产环境下的Shell脚本备份类

俗话说得好,备份是救命的稻草。特别是重要的数据和代码,这些都是公司的重要资产,所以备份是必需的。备份能在我们执行了一些毁灭性的工作(比如不小心删除了数据)之后,进行恢复工作。我在实施项目时,发现有些有实力的公司在国内几个地方都有灾备机房,而且用的都是价格不菲的EMC高端存储。有朋友可能会问:如果我们没有存储怎么办?这可以参考一下我们公司的备份策略,即在执行本地备份的同时,让Shell脚本自动上传数据到另一台FTP备份服务器中。这种备份策略成本比较小,无需存储。此双备策略的具体步骤如下所示。

首先,做好准备工作。我们先要安装一台CentOS 5.8备份服务器,并安装vsftpd服务,稍微改动一下配置后启动。另外,关于vsftpd的备份目录,我们可以选择做RAID1或RAID5的分区或存储。没条件的朋友也可以像我们一样,用硬盘底座(HARD DRIVE DOCK)挂接一块2TB的SATA3硬盘(如果追求速度的话大家可以选择e-SATA插口),然后直接将其挂载到这台服务器的/mnt分区上。经过长时间测试发现这也非常稳定,备份工作进行得很顺利。

vsftpd服务的安装如下,CentOS 5.8下自带的yum极为方便。

yum -y install vsftpd

service vsftpd start && chkconfig vsftpd on
关于vsftpd配置前面已经讲过,这里给出配置文件,我们可以通过组合使用如下命令直接得出vsftpd.conf中有效的文件内容:

grep -v "^#" /etc/vsftpd/vsftpd.conf | grep -v '^$'

local_enable=YES

write_enable=YES

local_umask=022

dirmessage_enable=YES

xferlog_enable=YES

connect_from_port_20=YES

xferlog_std_format=YES

listen=YES

chroot_local_user=YES

pam_service_name=vsftpd

userlist_enable=YES

tcp_wrappers=YES
chroot_local_user=YES这句话的作用我要重点强调一下。它的作用是限制所有本地用户在登录vsftpd服务器时只能在自己的家目录下,这是基于安全的考虑。在编写脚本的过程中也考虑到了这点,如果大家要移植此脚本到自己的工作环境中,不要忘了这句语法,否则异地备份极有可能失效。

另外,下例中的CVS目录备份脚本说明一种情况,我们在备份服务器(即IP为192.168.4.45的机器)上应该建立备份用户CVS,并分配其密码,还应该将其家目录更改为备份目录,即/data/backup/cvs-backup,这样的话更方便备份工作,以下备份脚本以此类推。FreeBSD 8.1的用户密码配置文件为/etc/master.passwd,CentOS 5.8为/etc/passwd,两者是不一样的。由于这里用的FTP服务器是CentOS 5.8,所以我们只需要修改/etc/passwd文件即可。

注意 下面的脚本源自于我的生产环境,并没有做任何变动,我对每个脚本运行的环境都进行了说明,大家也可以尝试将在FreeBSD 8.1下运行的Shell脚本移植到CentOS 5.8下面。注意FreeBSD 8.1和CentOS 5.8下的data用法是不一样的,改编脚本时请注意!

1.CVS目录的备份脚本

由于CVS服务器仅保留以前网站的代码和CVS日志,我们现不提交任何内容,只是以读为准,所以仅仅做目录级的备份即可。考虑到目录的备份不是太大,我就没有做轮询处理(即只备份某一周期的文件,例如前30天),准备等备份文件过多时再考虑手动删除。应该在vsftpd服务器上建立相应的备份用户cvs_user,脚本内容如下所示(此脚本在FreeBSD 8.1 x86_64下已通过):

#!/bin/sh

# CVS backup for FreeBSD 8.1

# 2010-04-23


CVSDIR=/home/cvsroot/project

DATE='date +%Y-%m-%d'

OLDDATE='date -v -10d +%Y-%m-%d'


BACKDIR=/data/backup/cvs-backup

FILENAME=cvsbackup_'date +%Y-%m-%d'


if[! -d ${BACKDIR}/${DATE} ]; then

  mkdir ${BACKDIR}/${DATE}

 fi


 if [-d ${BACKDIR}/${OLDDATE} ]; then

     rm -rf ${BACKDIR}/${OLDDATE}

 fi


HOST=192.168.4.45

FTP_USERNAME=cvs_user

FTP_PASSWORD=cvs101


cd $CVSDIR

tar zcvf $FILENAME.tar.gz $CVSDIR


ftp -i -n -v << !

open ${HOST}

user ${FTP_USERNAME} ${FTP_PASSWORD}

bin

rmdir ${OLDDATE}

mkdir ${DATE}

cd ${DATE}

mput *

bye

!

2.版本控制软件SVN的代码库的备份脚本

版本控制软件SVN的重要性这里就不多说了,现在很多公司基本还是利用SVN作为提交代码集中管理的工具,所以做好其备份工作的重要性不言而喻。这里的轮询周期为30天一次,Shell会自动删除30天前的文件。应该在vsftpd服务器上建立相应的备份用户svn_user,脚本内容如下(此脚本在FreeBSD 8.1 x86_64下已通过):

#!/bin/sh

# subversion backup for FreeBSD 8.1

# Created by ritto.zhao

# 2010-04-23


SVNDIR=/data/svn

SVNADMIN=/usr/local/bin/svnadmin

DATE='date +%Y-%m-%d'

OLDDATE='date -v -30d +%Y-%m-%d'


BACKDIR=/data/backup/svn-backup

[ -d ${BACKDIR} ] || mkdir -p ${BACKDIR}

LogFile=${BACKDIR}/svnbak.log

[ -f ${LogFile} ] || touch ${LogFile}

  mkdir ${BACKDIR}/${DATE}



if [-d ${BACKDIR}/${OLDDATE} ]; then

rm -rf ${BACKDIR}/${OLDDATE}

echo " " >> ${LogFile}

echo " " >> ${LogFile}

echo "-----------------------------" >> ${LogFile}

echo 'date +"%Y-%m-%d %H:%M:%S"' >> ${LogFile}

echo "-----------------------------" >> ${LogFile}

echo "***Subversion Backup Notification***" >> ${LogFile}

/usr/bin/printf "Host:  'hostname'\ nAddress: ${IP}\ nDate:${DATE}\ n"

>> ${LogFile}

fi


for PROJECT in superbiiz ewizweb rest report ewiz

do

 cd ${SVNDIR}

 ${SVNADMIN} hotcopy ${PROJECT} ${BACKDIR}/${DATE}/${PROJECT} --clean-logs

 cd ${BACKDIR}/${DATE}

 tar zcvf ${PROJECT}_svn_${DATE}.tar.gz ${PROJECT} > /dev/null

 rm -rf ${PROJECT}


echo "Repository: ${PROJECT} backup done into ${BACKDIR}/${DATE}/ Successful!" >> ${LogFile}

echo "-----------------------------" >> ${LogFile}

echo "***Subversion Backup Notification***" >> ${LogFile}

/usr/bin/printf "Host:  'hostname'\ nAddress: ${IP}\ nDate:  ${DATE}\ n"

>> ${LogFile}

done



for PROJECT in httpd web rest report test

do

 cd ${SVNDIR}

 ${SVNADMIN} hotcopy ${PROJECT} ${BACKDIR}/${DATE}/${PROJECT} --clean-logs


 cd ${BACKDIR}/${DATE}

 tar zcvf ${PROJECT}_svn_${DATE}.tar.gz ${PROJECT} > /dev/null

 rm -rf ${PROJECT}


 echo "Repository: ${PROJECT} backup done into ${BACKDIR}/${DATE}/ Successful!" >> ${LogFile}

 /bin/sleep 2

done


HOST=192.168.4.45

FTP_USERNAME=svn_user

FTP_PASSWORD=svn101


cd ${BACKDIR}/${DATE}


ftp -i -n -v << !

open ${HOST}

user ${FTP_USERNAME} ${FTP_PASSWORD}

bin

cd ${OLDDATE}

mdelete *

cd ..

rmdir ${OLDDATE}

mkdir ${DATE}

cd ${DATE}

mput *

bye

!

另附上CentOS下SVN代码库备份脚本(此脚本在CentOS 5.6|5.8 x86_64下通过):

#!/bin/bash

SVNDIR=/data/svn

SVNADMIN=/usr/bin/svnadmin

DATE='date +%Y-%m-%d'

OLDDATE='date +%Y-%m-%d -d '30 days''

BACKDIR=/data/svnbackup



[ -d ${BACKDIR} ] || mkdir -p ${BACKDIR}

LogFile=${BACKDIR}/svnbak.log

[ -f ${LogFile} ] || touch ${LogFile}



mkdir $BACKDIR/$DATE



for PROJECT in myproject official analysis mypharma  

do  

 cd $SVNDIR 

 $SVNADMIN hotcopy $PROJECT  $BACKDIR/$DATE/$PROJECT  --clean-logs

 cd $BACKDIR/$DATE

 tar zcvf $PROJECT-svn-$DATE.tar.gz $PROJECT  > /dev/null

 rm -rf $PROJECT

 sleep 2 

done 



HOST=192.168.11.29

FTP_USERNAME=svn

FTP_PASSWORD=svn101



cd ${BACKDIR}/${DATE}



ftp -i -n -v << !

open ${HOST}

user ${FTP_USERNAME} ${FTP_PASSWORD}

bin

cd ${OLDDATE}

mdelete *

cd ..

rmdir ${OLDDATE}

mkdir ${DATE}

cd ${DATE}

mput *

bye

!

3.MySQL从数据库备份脚本

本着简单高效,不影响网站正常运营的原则,我们采用暂停从MySQL数据库的方式备份。这里要说明的是,本地的轮询周期为20天,vsftpd的轮询周期为60天,备份后就算是用gzip压缩,MySQL的数据库还是很大,大家可以根据实际需求来更改这个时间,注意不要让数据库撑爆你的备份服务器。由于是内部开发环境,密码设置得比较简单,如果要将其移植到自己的公网服务器上,还要在安全方面注意一下。另外附带说明一下,--opt只是一个快捷选项,等同于同时添加--add-drop-tables--add-locking --create-option --disable-keys --extended-insert --lock-tables --quick --set-charset选项。本选项能让mysqldump很快地导出数据,并且导出的数据可以很快导回。该选项默认是开启的,但可以用--skip-opt禁用。注意,如果运行mysqldump没有指定--quick或--opt选项,则会将整个结果集放在内存中。如果导出的是大数据库则可能会出现问题。脚本内容如下(此脚本在CentOS 5.6|5.8 x86_64下已通过):

#!/bin/bash


USERNAME=mysqlbackup

PASSWORD=mysqlbackup


DATE='date +%Y-%m-%d'

OLDDATE='date +%Y-%m-%d -d '-20 days''

FTPOLDDATE='date +%Y-%m-%d -d '-60 days''


MYSQL=/usr/local/mysql/bin/mysql

MYSQLDUMP=/usr/local/mysql/bin/mysqldump

MYSQLADMIN=/usr/local/mysql/bin/mysqladmin

SOCKET=/tmp/mysql.sock


BACKDIR=/data/backup/db

[-d ${BACKDIR} ] || mkdir -p ${BACKDIR}

[-d ${BACKDIR}/${DATE} ] || mkdir ${BACKDIR}/${DATE}

[! -d ${BACKDIR}/${OLDDATE} ] || rm -rf ${BACKDIR}/${OLDDATE}


for DBNAME in mysql test report

do

  ${MYSQLDUMP} --opt -u${USERNAME} -p${PASSWORD} -S${SOCKET} ${DBNAME} | gzip > ${BACKDIR}/${DATE}/${DBNAME}-backup-${DATE}.sql.gz

  echo "${DBNAME} has been backup successful"

  /bin/sleep 5

done


HOST=192.168.4.45

FTP_USERNAME=dbmysql

FTP_PASSWORD=dbmysql


cd ${BACKDIR}/${DATE}


ftp -i -n -v << !

open ${HOST}

user ${FTP_USERNAME} ${FTP_PASSWORD}

bin

cd ${FTPOLDDATE}

mdelete *

cd ..

rmdir ${FTPOLDDATE}

mkdir ${DATE}

cd ${DATE}

mput *

bye

!

4.mysqlhotcopy热备份数据库脚本

mysqlhotcopy是一个Perl脚本,最初由Tim Bunce编写并提供。它的主要实现原理是先锁住(LOCK)表,然后执行FLUSH TABLES动作,该正常关闭的表正常关闭,该进行flush同步的数据也进行同步,然后通过执行系统级别的复制(cp等)命令,将需要备份的表或数据库的所有物理文件都复制到指定的备份集位置上。它主要用于备份MyISAM存储引擎的数据库。脚本内容如下(此脚本在CentOS 5.6|5.8 x86_64下已通过):

#!/usr/bin/env bash

#author:coralzd powered by www.freebsdsystem.org

#description: mysqlhotcopy backup script

DATE='date+%y%m%d.%H'

DATADIR="/data0/mysql/data" #MySQL数据库目录

BACKDIR_DAILY="/data0/local/mysqld/daily" #每天备份数据库的目录

BACKDIR_HOURLY="/data0/local/mysqld/hourly"#每小时备份数据库的目录

INTERVAL="$1"

TMPDIR="/var/tmp/" #临时目录

TMPDIRH="$TMPDIR"hourly #临时每小时数据库目录

TMPDIRD="$TMPDIR"daily #临时每小时备份数据库的目录

LOGDIR="/data0/log/dbbackup/" #备份数据输出日志路径

KEEPH_LOCAL=1

USER=hotcopy #mysqlhotcopy用到的用户,必须要有select、reload、lock_tables 权限

PASSWD=hotcopy # 密码

HOST='hostname -s'

MYVERSION="5.1" 

mkdir -p $LOGDIR

case $INTERVAL in

hourly | HOURLY | Hourly | 1 )

echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~"

echo "Performing HOURLY level backup -- 'date +$m-$d.%H:%M:%S'" && echo 

""

echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~" 

>>"$LOGDIR"hourly.log

echo "Performing HOURLY level backup -- 'date +$m-$d.%H:%M:%S'" 

>>"$LOGDIR"hourly.log

mkdir -p $TMPDIRH # 创建临时目录

mkdir -p $BACKDIR_HOURLY #创建每小时备份目录

/usr/local/mysql/bin/mysqlhotcopy --allowold test -u $USER -p $PASSWD 

$TMPDIRH > /dev/null

echo "" && echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~"

echo "Compressing -- 'date +$m-$d.%H:%M:%S'"

echo "Compressing -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"hourly.log

cd $TMPDIRH #进入临时目录

find . -maxdepth 1 -type d -user mysql -exec tar czf {}-"$DATE".tar.gz '{}' \ ;

# 查找是mysql用户的数据库,然后进行打包

find . -maxdepth 1 -type d -user mysql -exec rm -rf {} \ ; # 查找并删除用户名为mysql的文件

echo ""

echo "Copying Local... -- 'date +$m-$d.%H:%M:%S'"

echo "Copying Local... -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"hourly.log

chattr -i $BACKDIR_HOURLY # 移除备份目录的保护属性

find $BACKDIR_HOURLY -type f -mtime +7 -exec rm {} \ ;#查找并删除在7天以外的备份数据库

mv * $BACKDIR_HOURLY #将打包好的文件移到每小时备份目录

chattr +i $BACKDIR_HOURLY # 对备份目录加保护

echo ""

echo "Ending -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"hourly.log

exit 0

;;

daily | DAILY | Daily | 2)

echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~"

echo "Performing DAILY level backup -- 'date +$m-$d.%H:%M:%S'" && echo 

""

echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~" 

>>"$LOGDIR"daily.log

echo "Performing DAILY level backup -- 'date +$m-$d.%H:%M:%S'" 

>>"$LOGDIR"daily.log

mkdir -p $TMPDIRD #进入临时目录

mkdir -p $BACKDIR_DAILY #创建每天备份目录

/usr/local/mysql/bin/mysqlhotcopy --allowold test -u $USER -p $PASSWD 

$TMPDIRD > /dev/null

echo "" && echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~"

echo "Compressing -- 'date +$m-$d.%H:%M:%S'"

echo "Compressing -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"daily.log

cd $TMPDIRD #进入临时目录

find . -maxdepth 1 -type d -user mysql -exec tar czf {}-"$DATE".tar.gz '{}' \ ; 

#查找是mysql用户的数据库,然后进行打包

find . -maxdepth 1 -type d -user mysql -exec rm -rf {} \ ; #查找备份数据库,并将在1天以外的备份删除

echo "Copying Local... -- 'date +$m-$d.%H:%M:%S'"

echo "Copying Local... -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"daily.log

chattr -i $BACKDIR_DAILY #移除备份目录的保护属性

find $BACKDIR_DAILY -type f -mtime +$KEEPD_LOCAL -exec rm -rf '{}' \ ; #查找备份数据库,并将在1天以外的备份删除

mv * $BACKDIR_DAILY #将打包好的文件移到每小时备份目录

chattr +i $BACKDIR_DAILY #对备份目录加保护

echo "Ending -- 'date +$m-$d.%H:%M:%S'" >>"$LOGDIR"daily.log

exit 0

;;

* )

echo ""

echo 

"~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~"

echo "Invalid Selection" 1>&2

exit 1

esac
3.6.2 生产环境下的开发类Shell脚本

Shell作为系统管理脚本,在开发功能上一直有所欠缺,但我们可以将其作为PHP或Python开发语言的辅助语言,配合作开发工具,提高我们的工作效率。

1.配合PHP作为SVN的发布程序

公司的SVN发布程序是这样的工作流程:把将要发布的程序打上publish please:,后面接上SVN日志(开发人员提交的代码日志,这比较重要,是后来更改代码的条件依据),然后PHP程序会检索出这些打上标的代码,并发布到线上环境中。这样一来就带来了一个问题:在按照原先的程序发布到线上后,会将publish please后面的开发人员写的SVN log清除,给开发造成了不便。我在接手此工作后将此Shell脚本重写,解决了这个Bug。由于此脚本牵涉的内容比较多,功能也比较繁琐,所以这里只给大家演示一下,并不要求掌握。实现功能的代码如下所示(此脚本在FreeBSD 8.1 x86_64下已通过):

#!/bin/sh

# SVN PUBLISH TOOL

# 2010-07-23

SVN=/usr/local/bin/svn


cd /var/www/html/svn_log/files/svn/

svn up --username web --password web101

cat /var/www/html/svn_log/files/svntest/file.log | svn log $2 | head -n5 | sed -n "/publish/p" > svnlog

svnlog_change='sed -i "s@publish please@already published@" svnlog'

cat /var/www/html/svn_log/files/svntest/file.log | awk -F ',' '{ print "/usr/local/bin/svn propset --username web --password web101 -r"$1" --revprop svn:log "$svnlog_change" " $2 }' | /bin/sh


[! -d /var/www/html/svn_log/files/svntest ] || mv /var/www/html/svn_log/files/svntest /var/www/html

/old-svntest/html-${COMMIT}

mkdir /var/www/html/svn_log/files/svntest

chmod -R 777 /var/www/html/svn_log/files/svntest

chown -R www:www /var/www/html/svn_log/files/svntest

cd /var/www/html/svn_log/files/svn/

svn up --username web --password web101

此脚本在线上已稳定运行半年,基本能实现我们的要求。美中不足的是,我们发现还存在着一个Bug,即如果有大量脚本要同时提交,此脚本会失效,这个Bug目前也只能在后续版本中改进了。

2.利用Shell安全方便地删除指定的zone

我维护的DNS服务器主要有3个,即一主一从一备。由于公司的架构采用了CDN方案,所以namd.conf针对“okspace.com”的出现位置就有3处,即电信、网通及其他,加上3个服务器,每次手动用Vim删除okspace.com时就必须修改9处,维护起来很麻烦。更棘手的是,有些zone经常需要删除,特别麻烦。所以我写了个Shell脚本以减轻自己的工作量,且达到安全删除的目的。

此脚本中变量domain中的文件内容可以自己定义,鉴于生产环境下bind都是源码安装的,所以就以named.conf文件为主了。代码虽然短小,但操作起来确实很方便,后期我想跟Python或PHP结合起来使用,做成图形化界面,并加入了更多功能,使其更完善。代码如下(此脚本在CentOS 5.6|5.8 x86_64下已通过):

#!/bin/bash

domain='zone\ "okspace.cn"' 

if [-e /var/named/chroot/etc/named.conf ];then

sed -i "/$domain/,/};/d" /var/named/chroot/etc/named.conf

else 

sed -i "/$domain/,/};/d" /var/named/chroot/var/named/named.rfc1912.zones

fi```
在实际工作中我们了解了Shell脚本强大的系统管理功能,也意识到了它在开发上的先天不足,这里我建议大家有时间可以关注和学习一门开发语言,PHP或Python均可。大家可以根据自己的兴趣和职业规划,有重点地选择学习。


####3.6.3 生产环境下的统计类Shell脚本

统计工作一直是Shell脚本的强项,我们完全可以利用Sed、Awk再加上正则表达式,写出强大的统计脚本来分析系统日志、安全日志及服务器应用日志等。

1.Nginx负载均衡器日志汇总脚本 此脚本同样适用于分析Nginx或Apache Web日志。

以下脚本是用来分析Nginx负载均衡器的日志,作为Awstats的补充,它可以快速得出排名最前的网站和IP等。脚本内容如下所示(此脚本在CentOS 5.8 x86_64下已测试通过):

!/bin/bash

if [$# -eq 0 ]; then

  echo "Error: please specify logfile."

  exit 0

else

  LOG=$1

fi

if [! -f $1 ]; then

  echo "Sorry, sir, I can't find this nginx log file, pls try again!"

exit 0

fi

echo "Most of the ip:"

echo "-------------------------------------------"

awk '{ print $1 }' $LOG | sort | uniq -c | sort -nr | head -10

echo

echo

echo "Most of the time:"

echo "--------------------------------------------"

awk '{ print $4 }' $LOG | cut -c 14-18 | sort | uniq -c | sort -nr | head -10

echo

echo

echo "Most of the page:"

echo "--------------------------------------------"

awk '{print $11}' $LOG | sed 's/^.\ (.cn\ )\"/\ 1/g' | sort | uniq -c | sort -rn | head -10

echo

echo

echo "Most of the time / Most of the ip:"

echo "--------------------------------------------"

awk '{ print $4 }' $LOG | cut -c 14-18 | sort -n | uniq -c | sort -nr | head -10 > timelog

for i in 'awk '{ print $2 }' timelog'

do

  num='grep $i timelog | awk '{ print $1 }''

  echo " $i $num"

  ip='grep $i $LOG | awk '{ print $1}' | sort -n | uniq -c | sort -nr | head -10'

  echo "$ip"

  echo

done

rm -f timelog

2.Nginx Web服务器日志切割脚本

为什么我们要对日志进行切割呢?这是因为在生产环境下,我们的Web服务器是365×24小时不间断地提供服务的,它的日志也是不间断产生的。而我们分析它的日志时,可能需要以天为单位来查看,所以考虑以天为单位来切割,可以利用Crontab来完成这项工作,切割后的日志可以用Awstats来分析。脚本内容如下所示(此脚本在CentOS 5.5 x86_64下已通过):

!/bin/bash 

The Nginx logs path 

logs_path="/data0/logs"

logs_dir=${logs_path}/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")

logs_file=$(date -d "yesterday" +"%Y%m%d")

mkdir -p /data0/backuplogs/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")

tar -czf ${logs_path}/${logs_file}.tar.gz ${logs_path}/*.log

rm -rf ${logs_path}/*.log

mv ${logs_path}/${logs_file}.tar.gz /data0/backuplogs/$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m")

/usr/local/nginx/sbin/nginx -s reload

for oldfiles in 'find /data0/backuplogs/$(date -d "30 days ago" +"%Y")/$(date -d "30 days ago" +"%m")/ -type f -mtime +30'

do

   rm -f $oldfiles

done

for oldfiles in 'find/data0/backuplogs/$(date -d"30 days ago"+"%Y")/$(date -d"30 days ago"+"%m")/-type f -mtime+30'这句代码的作用是自动删除一个月前的打包日志文件。Nginx处理日志的脚本比较简单,大家没必要像我一样写得这么复杂,还可以简化一些。


3.测试局域网内主机依然存活的小脚本

我们在对局域网的网络情况进行维护时,经常有这样的情况,需要收集网络中存活的IP,这个时候可以写一个Shell脚本,自动收集某一网段的IP。现在的IT技术型公司一般都比较大,网络工程师一般会规划几个VLAN,即几个网段,我们可以多设几个变量参数来自动收集所有网段的IP。脚本如下所示(此脚本在CentOS 5.8 x86_64下已通过):

!/bin/bash

for n in {100..200}; do

   host=192.168.4.$n

   ping -c2 $host &>/dev/null

   if [$? = 0 ]; then

         echo "$host is UP"

         echo "$host" >> /root/alive.txt

   else

         echo "$host is DOWN"

   fi

done`
程序会自动记录存活的IP,我们用cat命令来查看/root/alive.txt文件,如下所示:

cat /root/alive.txt

192.168.4.100

192.168.4.101

192.168.4.102

192.168.4.108

192.168.4.109

192.168.4.111

192.168.4.113

192.168.4.121

192.168.4.123

192.168.4.125

192.168.4.133

192.168.4.138

192.168.4.142

192.168.4.143
脚本虽然短小,但却非常实用,免得又要到Windows XP下去下载局域网检测工具。我们平时在工作中也应该注意多收集多写一些这样的脚本,达到简化我们工作的目的。

3.6.4 生产环境下的监控类Shell脚本

在生产环境下,服务器的稳定情况会直接影响公司的生意和信誉,可见其有多重要。所以,我们需要即时掌握服务器的状态,一般我们会在机房部署Nagios作为监控程序,然后用Shell作为补充脚本,实时监控我们的服务器。
1.自动监控ADSL状态并重启的脚本
故障分析:公司的办公环境中以一台Ubuntu 8.04作NAT路由器,但它的ADSL总是掉线,一掉的话网关的Gateway就没有了,直接影响就是所有同事都上不了网。所以我针对这种情况写了一个监控脚本,测试了很长时间,效果不错。执行脚本方法如下所示:
nohup sh route.sh &
注意前面要用上nohup,这样可避免root用户logout时此脚本退出。脚本代码如下(此脚本在Ubuntu 8.04 i386下已通过):

#!/bin/bash
#Created By Andrew.Yu
while :
 do
  if route | tail -l | grep "0.0.0.0"
  then
  &>/dev/null
  else
   adsl-stop
   adsl-start
  fi
  sleep 10
 done```
2.Nginx负载均衡服务器上监控Nginx进程的脚本
由于我们的电子商务前端的负载均衡层用到了Nginx+Keepalived架构,而Keepalived无法进行Nginx服务的实时切换,所以这里用了一个监控脚本nginx_pid.sh,每隔5秒就监控一次Nginx的运行状态,如果发现有问题就关闭本机的Keepalived程序,让VIP切换到从Nginx负载均衡器上。在对线上环境进行操作的时候,我人为地重启了主Master的Nginx机器,从Nginx机器在很短的时间内就接管了VIP地址,即网站的实际内网地址(此内网地址能过防火墙映射为公网IP),进一步证实了此脚本的有效性。脚本内容如下(此脚本已在CentOS 5.8  x86_64下测试通过):

!/bin/bash

Created By Andrew.Yu

while :
do
nginxpid='ps -C nginx --no-header | wc -l'
if [$nginxpid -eq 0 ];then
  ulimit -SHn 65535
  /usr/local/nginx/sbin/nginx
sleep 5
 nginxpid='ps -C nginx --no-header | wc -l'
 if [$nginxpid -eq 0 ];then
 /etc/init.d/keepalived stop
 fi
fi
sleep 5
done`
3.系统文件打开数监测脚本
这个脚本比较方便,可用来查看Nginx进程下最大文件打开数。脚本代码如下(此脚本在CentOS 5.8 x86_64下已通过):

#!/bin/bash
for pid in 'ps aux | grep nginx | grep -v grep|awk '{print $2}''
do
cat /proc/${pid}/limits | grep 'Max open files'
done```
脚本的运行结果如下所示:

Max open files      1024         1024         files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files
Max open files      65535        65535        files   
4.Web网站即时监控与报警程序
虽然现在规模较大的公司可以购买AlertBot即时监控服务,并配合Nagios来监控网站,但很多时候客户的公司可能没这个需求,所以我们可以写一个Shell程序监控我们的脚本,网站出故障后就向我们的邮箱或手机发送信息报警。如果飞信接口不是太稳定的话,可以向139的邮箱发报警邮件,它会自动绑定到我们的移动手机上。脚本代码如下(此脚本在CentOS 5.6|5.8 x86_64下已通过):

!/bin/sh

Created by kerryhu

MAIL:king_819@163.com

BLOG:http://kerry.blog.51cto.com

LANG=C

被监控服务器、端口列表

server_all_list=(\
125.252.87.171:80 \
58.64.157.166:80 \
58.64.157.174:80 \

219.87.10.1:80 \

)

telnum=152XXXXXXXX
passwd=12345

date=$(date -d "today" +"%Y-%m-%d_%H:%M:%S")

采用HTTP POST方式发送检测信息给接口程序interface.php,接口程序负责分析信息,决定是否发送报警MSN消息、手机短信、电子邮件

send_msg_to_interface()
{
  if [[$2 = "0" ]] || [[$2 = "2" ]]; then
     #开始发送警报邮件,135XXXXXXXX@139.com既是发送方也是接收方
     sendEmail -f 135XXXXXXXX@139.com -t 135XXXXXXXX@139.com -s smtp.139.com -u "from http_monitor" -xu 135XXXXXXXX@139.com -xp james -o message-charset=utf-8 -m $1
     #发送MSN警报消息(如果不需要MSN警报可以注释这行)

     curl -m 600 -d menu=http -d date=$date -d ip=$server_ip -d port=$server_port -d status=$status http://127.0.0.1/monitor/interface.php

  fi;

}

server_all_len=${#server_all_list[*]}
i=0
while [$i -lt $server_all_len ]
do
  server_ip=$(echo ${server_all_list[$i]} | awk -F ':' '{print $1}')
  server_port=$(echo ${server_all_list[$i]} | awk -F ':' '{print $2}')
  server_message=" "
  if curl -m 10 -G http://${server_all_list[$i]}/ > /dev/null 2>&1
  then
   #status:  0,http down  1,http ok  2,http down but ping ok
   status=1
      echo "服务器${server_ip},端口${server_port}能够正常访问!";
        server_message="服务器${server_ip},端口${server_port}能够正常访问!";
  else
    if curl -m 30 -G http://${server_all_list[$i]}/ > /dev/null 2>&1
    then
      status=1
      echo "服务器${server_ip},端口${server_port}能够正常访问!"
        server_message="服务器${server_ip},端口${server_port}能够正常访问!";
    else
      if ping -c 1 $server_ip > /dev/null 2>&1
      then
        status=2
        echo "服务器${server_ip},端口${server_port}无法访问,但是能够Ping通!";
         server_message="服务器${server_ip},端口${server_port}无法访问,但是能够Ping通!";
      else
        status=0
        echo "服务器${server_ip},端口${server_port}无法访问,并且无法Ping通!";
         server_message="服务器${server_ip},端口${server_port}无法访问,并且无法Ping通!";
      fi
    fi
  fi
send_msg_to_interface "${server_message}" "${status}";
  let i++
don

5.MySQL主从监控邮件报警脚本
脚本设计思路:
1)此脚本应该能适应各种各样不同的内外网环境,即IP不同的环境。
2)让脚本也顺便监控下MySQL是否正常运行。
3)Slave机器的IO和SQL状态都必须为YES,缺一不可,这里用到了多重条件判断-a。
脚本产生的背景环境:
我有不少基于公网类型的网站(没有硬件防火墙,直接置于IDC机房)做的都是MySQL一主一从架构,从机主要起备份数据库和冷备份的作用,虽然从机宕机了问题不大,但也影响数据的备份工作;这样的网站有数十个,如果一个一个手动检查,每天都要浪费不少时间,所以用了脚本监控,设计了如下脚本(以下脚本在CentOS 5.8 x86_64下已通过):

!/bin/bash

check MySQL_Slave Status

crontab time 00:10

MYSQLPORT='netstat -na|grep "LISTEN"|grep "3306"|awk -F[:" "]+ '{print $4}''
MYSQLIP='ifconfig eth0|grep "inet addr" | awk -F[:" "]+ '{print $4}''
STATUS=$(/usr/local/webserver/mysql/bin/mysql -u yuhongchun -pyuhongchun101 -S /tmp/mysql.sock -e "show slave status\G" | grep -i "running")
IO_env='echo $STATUS | grep IO | awk ' {print $2}''
SQL_env='echo $STATUS | grep SQL | awk '{print $2}''

if [ "$MYSQLPORT" == "3306" ]
then
 echo "mysql is running"
else
 mail -s "warn!server: $MYSQLIP mysql is down" yuhongchun027@163.com
fi

if [ "$IO_env" = "Yes" -a "$SQL_env" = "Yes" ]
then
 echo "Slave is running!"
else
 echo "####### $date #########">> /data/data/check_mysql_slave.log
 echo "Slave is not running!" >> /data/data/check_mysql_slave.log
 mail -s "warn! $MySQLIP_replicate_error" yuhongchun027@163.com << /data/data/check_mysql_slave.log
fi
建议每10分钟运行一次:
/10 * root /bin/sh /root/mysql_slave.sh
记得在每台MySQL从机上分配一个yuhongchun的用户,权限大些也没关系,只限定在本地运行,如下所示:
grant all privileges on . to "yuhongchun"@"127.0.0.1" identified by "yuhongchun101";
grant all privileges on . to "yuhongchun"@"localhost" identified by "yuhongchun101";`
脚本实践:
此脚本我已用于生产环境,大家可以放在从MySQL机器上,用来监控。
后期应用:
后期公司的MySQL数据库准备由一主一从架构升级成一主多从,读写分离的架构,LVS作从数据库的负载均衡器,此脚本自动监控从MySQL的replication状态,如果不能同步则自动关闭本机的MySQL服务,免得影响整个网站的正常业务访问。

3.6.5 生产环境下的自动化类Shell脚本

1.批量生成账户脚本
在内网开发环境中,有时需要为开发组的同事批量生成账户,如果手动添加会非常麻烦,这个时候我们可以写一段Shell脚本来自动完成这项工作。在首次登录时密码均是统一的,在移交给开发人使用时让他们自行更改。脚本代码如下(此脚本在CentOS 5.8 x86_64下已通过):

#!/bin/bash 
#此脚本应用于开发环境下生成批量用户账户
for name in tom jerry joe jane andrewy brain
do
  useradd $name
  echo redhat | passwd --stdin $name
don```
passwd --stdin的作用是将前面的输入通过管道命令作为自己的输出,从而避免脚本交互,达到自动化的目的。
2.系统初始化脚本
此脚本用于新装Linux的相关配置工作,比如禁掉iptable和SELinux及ipv6、优化系统内核、停掉一些没必要启动的系统服务等。此脚本尤其适合大批新安装的CentOS系列的服务器。脚本代码如下所示(此脚本在CentOS 5.5|5.6 x86_64下已通过):

!/bin/bash

Created by kerryhu

MAIL:king_819@163.com

BLOG:http://kerry.blog.51cto.com

cat << EOF
     === Welcome to CentOS System init ===        

+--------------------------by kerry----------------------------+
EOF

set ntp

yum -y install ntp
echo " 3 /usr/sbin/ntpdate 210.72.145.44 > /dev/null 2>&1" >> /etc/crontab
service crond restart

set ulimit

echo "ulimit -SHn 102400" >> /etc/rc.local

set locale

true > /etc/sysconfig/i18n

cat >>/etc/sysconfig/i18n<

LANG="zh_CN.GB18030"

SUPPORTED="zh_CN.GB18030:zh_CN:zh:en_US.UTF-8:en_US:en"

SYSFONT="latarcyrheb-sun16"

EOF

set sysctl

true > /etc/sysctl.conf
cat >> /etc/sysctl.conf << EOF
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.tcp_max_tw_buckets = 6000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096 87380 4194304
net.ipv4.tcp_wmem = 4096 16384 4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 1200
net.ipv4.ip_local_port_range = 1024 65535
EOF
/sbin/sysctl -p
echo "sysctl set OK!!"

close ctrl+alt+del

sed -i "s/ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/#ca::ctrlaltdel:\/sbin\/shutdown -t3 -r now/" /etc/inittab

set purview

chmod 600 /etc/passwd
chmod 600 /etc/shadow
chmod 600 /etc/group
chmod 600 /etc/gshadow

disable ipv6

cat << EOF
     === Welcome to Disable IPV6 ===                  

EOF
echo "alias net-pf-10 off" >> /etc/modprobe.conf
echo "alias ipv6 off" >> /etc/modprobe.conf
/sbin/chkconfig --level 35 ip6tables off
echo "ipv6 is disabled!"

disable selinux

sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config
echo "selinux is disabled,you must reboot!"

vim

sed -i "8 s/^/alias vi='vim'/" /root/.bashrc
echo 'syntax on' > /root/.vimrc

zh_cn

sed -i -e 's/^LANG=.*/LANG="en"/'  /etc/sysconfig/i18n

init_ssh

ssh_cf="/etc/ssh/sshd_config"
sed -i -e '74 s/^/#/' -i -e '76 s/^/#/' $ssh_cf

sed -i "s/#Port 22/Port 65535/" $ssh_cf

sed -i "s/#UseDNS yes/UseDNS no/" $ssh_cf

client

sed -i -e '44 s/^/#/' -i -e '48 s/^/#/' $ssh_cf
service sshd restart
echo "ssh is init is ok.............."

chkser

tunoff services

---------------------------------------------------------------------------

cat << EOF
     === Welcome to Tunoff services ===                 

EOF

---------------------------------------------------------------------------

for i in 'ls /etc/rc3.d/S*'
do
      CURSRV='echo $i|cut -c 15-'
echo $CURSRV
case $CURSRV in
     crond | irqbalance | microcode_ctl | network | random | sshd | syslog | local )
   echo "Base services, Skip!"
   ;;
   *)
     echo "change $CURSRV to off"
     chkconfig --level 235 $CURSRV off
     service $CURSRV stop
   ;;
esac
done
echo "service is init is ok.............."

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值