linux常用Shell 脚本

目录

前言

在 Shell 中有两种判断格式:

# 1. 第一种
test  条件表达式

# 2. 第二种   注意括号两端必须有空格, 否则 start.sh:行52: [[ xy: 未找到命令
[  条件表达式  ]
  • if 开头,fi 结尾
  • [ 条件判断 ] 就是使用 test 命令判断,两端必须有空格
  • if 如果 和 then 在一行,需要加 ;
if [ 条件判断式1 ];  then
       命令
elif [ 条件判断式2 ];  then 
       命令
...
else
   命令
fi

shell中的中括号(也叫方括号,包括单中括号 [ ]和双中括号[[ ]]),Shell 里面的中括号(包括单中括号与双中括号)可用于一些条件的测试:
  • 算术比较, 比如一个变量是否为0, [ $var -eq 0 ]。
  • 文件属性测试,比如一个文件是否存在,[ -e $var ], 是否是目录,[ -d $var ]。
  • 字符串比较, 比如两个字符串是否相同, [[ $var1 = $var2 ]]。
  • [] 常常用来代替 test 命令
注意 [ 条件表达式 ] 前后都得有空格 ,否则 未找到命令
stop() {

    read -t 5 -p ">>> 确定要停止应用:${jar_name}? y/n " flag
    echo "输入命令结果flag=$flag"

    if [[ "x$flag" == "xn" ]]
    then
        echo "你取消了停止应用:${jar_name}" 
        exit 1
    else
        echo "正在停止:${jar_name} ..." 
    fi
        pid=$(ps -ef | grep $jar_name | grep -v grep | awk '{print $2}')
        if [ -z $pid ]; then
            echo "warn: >>> 应用 ${jar_name}未运行!"
    else
        echo ">>> 应用 ${jar_name}准备关闭,进程$pid"
        kill -9 $pid

        sleep 1
        echo ">>> 应用 ${jar_name}已关闭!"
    fi
    echo ">>> ..."
}
算术比较

对变量或值进行算术条件判断:

需要注意的是 [ 与 ] 与操作数之间一定要有一个空格,否则会报错。比如下面这样就会报错:

[ $var -eq 0 ]  或  [ $var -ne  0 ] 

其他比较操作符:

操作符意义
-gt大于
-lt小于
-ge大于或等于
-le小于或等于

可以通过 -a (and) 或 -o (or) 结合多个条件进行测试:

[ $var1 -ne 0 -a $var2 -gt 2 ]  # 使用逻辑与 -a
[ $var1 -ne 0 -o $var2 -gt 2 ]  # 使用逻辑或 -o
字符串比较

在进行字符串比较时,最好使用双中括号 [[ ]]. 因为单中括号可能会导致一些错误,因此最好避开它们。

检查两个字符串是否相同:

[[ $str1 = $str2 ]]

当 str1等于str1等于str2 时,返回真。也就是说,str1 和 str2 包含的文本是一样的。其中的单等于号也可以写成双等于号,也就是说,上面的字符串比较等效于 [[ $str1 == $str2 ]]。

注意

= 前后有一个空格,如果忘记加空格, 就变成了赋值语句,而非比较关系了。

字符串的其他比较情况:

操作符意义
[[ $str1 != $str2 ]]如果 str1 与 str2 不相同,则返回真
[[ -z $str1 ]]如果 str1 是空字符串,则返回真
[[ -n $str1 ]]如果 str1 是非空字符串,则返回真

使用逻辑运算符 && 和 || 可以轻松地将多个条件组合起来, 比如:


str1="Not empty"
str2=""
if [[ -n $str1 ]] && [[ -z $str2 ]];
then
  echo str1 is nonempty and str2 is empty string.
fi

1、检测两台服务器指定目录下的文件一致性

#!/bin/bash
#####################################
#检测两台服务器指定目录下的文件一致性
#####################################
#通过对比两台服务器上文件的md5值,达到检测一致性的目的
dir=/data/web
b_ip=192.168.88.10
#将指定目录下的文件全部遍历出来并作为md5sum命令的参数,进而得到所有文件的md5值,并写入到指定文件中
find $dir -type f|xargs md5sum > /tmp/md5_a.txt
ssh $b_ip "find $dir -type f|xargs md5sum > /tmp/md5_b.txt"
scp $b_ip:/tmp/md5_b.txt /tmp
#将文件名作为遍历对象进行一一比对
for f in `awk '{print 2} /tmp/md5_a.txt'`
do
    #以a机器为标准,当b机器不存在遍历对象中的文件时直接输出不存在的结果
    if grep -qw "$f" /tmp/md5_b.txt
    then
        md5_a=`grep -w "$f" /tmp/md5_a.txt|awk '{print 1}'`
        md5_b=`grep -w "$f" /tmp/md5_b.txt|awk '{print 1}'`
        #当文件存在时,如果md5值不一致则输出文件改变的结果
        if [ $md5_a != $md5_b ]
        then
            echo "$f changed."
        fi
    else
        echo "$f deleted."
    fi
done

2、定时清空文件内容,定时记录文件大小

#!/bin/bash
################################################################
#每小时执行一次脚本(任务计划),当时间为0点或12点时,将目标目录下的所有文件内
#容清空,但不删除文件,其他时间则只统计各个文件的大小,一个文件一行,输出到以时#间和日期命名的文件中,需要考虑目标目录下二级、三级等子目录的文件
################################################################
logfile=/tmp/`date +%H-%F`.log
n=`date +%H`
if [ $n -eq 00 ] || [ $n -eq 12 ]
then
    #通过for循环,以find命令作为遍历条件,将目标目录下的所有文件进行遍历并做相应操作
    for i in `find /data/log/ -type f`
    do
        true > $i
    done
else
    for i in `find /data/log/ -type f`
    do
        du -sh $i >> $logfile
    done
fi

3、检测网卡流量,并按规定格式记录在日志中

#!/bin/bash
#######################################################
#检测网卡流量,并按规定格式记录在日志中
#规定一分钟记录一次
#日志格式如下所示:
#2019-08-12 20:40
#ens33 input: 1234bps
#ens33 output: 1235bps
######################################################3
while :
do
    #设置语言为英文,保障输出结果是英文,否则会出现bug
    LANG=en
    logfile=/tmp/`date +%d`.log
    #将下面执行的命令结果输出重定向到logfile日志中
    exec >> $logfile
    date +"%F %H:%M"
    #sar命令统计的流量单位为kb/s,日志格式为bps,因此要*1000*8
    sar -n DEV 1 59|grep Average|grep ens33|awk '{print $2,"\t","input:","\t",$5*1000*8,"bps","\n",$2,"\t","output:","\t",$6*1000*8,"bps"}'
    echo "####################"
    #因为执行sar命令需要59秒,因此不需要sleep
done

4、计算文档每行出现的数字个数,并计算整个文档的数字总数

#!/bin/bash
#########################################################
#计算文档每行出现的数字个数,并计算整个文档的数字总数
########################################################
#使用awk只输出文档行数(截取第一段)
n=`wc -l a.txt|awk '{print $1}'`
sum=0
#文档中每一行可能存在空格,因此不能直接用文档内容进行遍历
for i in `seq 1 $n`
do
    #输出的行用变量表示时,需要用双引号
    line=`sed -n "$i"p a.txt`
    #wc -L选项,统计最长行的长度
    n_n=`echo $line|sed s'/[^0-9]//'g|wc -L`
    echo $n_n
    sum=$[$sum+$n_n]
done
echo "sum:$sum"

杀死所有脚本

#!/bin/bash
if [ $# -ne 1 ]; then
    echo "Usage: $0 filename"
fi
dir=$(dirname $1)
file=$(basename $1)
ftp -n -v << EOF   # -n 自动登录
open 192.168.1.10  # ftp服务器
user admin password
binary   # 设置ftp传输模式为二进制,避免MD5值不同或.tar.gz压缩包格式错误
cd $dir
get "$file"
EOF

5、从 FTP 服务器下载文件

#!/bin/bash  
if [ $# -ne 1 ]; then  
    echo "Usage: $0 filename"  
fi  
dir=$(dirname $1)  
file=$(basename $1)  
ftp -n -v << EOF   # -n 自动登录  
open 192.168.1.10  # ftp服务器  
user admin password  
binary   # 设置ftp传输模式为二进制,避免MD5值不同或.tar.gz压缩包格式错误  
cd $dir  
get "$file"  
EOF

6、连续输入5个100以内的数字,统计和、最小和最大

#!/bin/bash
COUNT=1
SUM=0
MIN=0
MAX=100
while [ $COUNT -le 5 ]; do
    read -p "请输入1-10个整数:" INT
    if [[ ! $INT =~ ^[0-9]+$ ]]; then
        echo "输入必须是整数!"
        exit 1
        elif [[ $INT -gt 100 ]]; then
        echo "输入必须是100以内!"
        exit 1
    fi
    SUM=$(($SUM+$INT))
    [ $MIN -lt $INT ] && MIN=$INT
    [ $MAX -gt $INT ] && MAX=$INT
    let COUNT++
done
echo "SUM: $SUM"
echo "MIN: $MIN"
echo "MAX: $MAX"

用户猜数字



#!/bin/bash  # 脚本生成一个 100 以内的随机数,提示用户猜数字,根据用户的输入,提示用户猜对了,
# 猜小了或猜大了,直至用户猜对脚本结束。
# RANDOM 为系统自带的系统变量,值为 0‐32767的随机数
# 使用取余算法将随机数变为 1‐100 的随机数num=$[RANDOM%100+1]echo "$num"
# 使用 read 提示用户猜数字
# 使用 if 判断用户猜数字的大小关系:‐eq(等于),‐ne(不等于),‐gt(大于),‐ge(大于等于),
# ‐lt(小于),‐le(小于等于)

while :
do
    read -p "计算机生成了一个 1‐100 的随机数,你猜: " cai
    if [ $cai -eq $num ]
    then
        echo "恭喜,猜对了"
        exit
    elif [ $cai -gt $num ]
    then
        echo "Oops,猜大了"
    else
        echo "Oops,猜小了"
    fi
done

7、监测 Nginx 访问日志 502 情况,并做相应动作

假设服务器环境为 lnmp,近期访问经常出现 502 现象,且 502 错误在重启 php-fpm 服务后消失,因此需要编写监控脚本,一旦出现 502,则自动重启 php-fpm 服务。

#场景:
#1.访问日志文件的路径:/data/log/access.log
#2.脚本死循环,每10秒检测一次,10秒的日志条数为300条,出现502的比例不低于10%(30条)则需要重启php-fpm服务
#3.重启命令为:/etc/init.d/php-fpm restart
#!/bin/bash
###########################################################
#监测Nginx访问日志502情况,并做相应动作
###########################################################
log=/data/log/access.log
N=30 #设定阈值
while :
do
    #查看访问日志的最新300条,并统计502的次数
    err=`tail -n 300 $log |grep -c '502" '`
    if [ $err -ge $N ]
    then
        /etc/init.d/php-fpm restart 2> /dev/null
        #设定60s延迟防止脚本bug导致无限重启php-fpm服务
        sleep 60
    fi
    sleep 10
done

8、将结果分别赋值给变量

应用场景:希望将执行结果或者位置参数赋值给变量,以便后续使用。

方法1:
for i in $(echo "4 5 6"); do
    eval a$i=$i
done
echo $a4 $a5 $a6
方法2:将位置参数192.168.1.1{1,2}拆分为到每个变量
num=0
for i in $(eval echo $*);do   #eval将{1,2}分解为1 2
    let num+=1
    eval node${num}="$i"
done
echo $node1 $node2 $node3
# bash a.sh 192.168.1.1{1,2}
192.168.1.11 192.168.1.12
方法3:
arr=(4 5 6)
INDEX1=$(echo ${arr[0]})
INDEX2=$(echo ${arr[1]})
INDEX3=$(echo ${arr[2]})

9、批量修改文件名

示例:

# touch article_{1..3}.html  
# lsarticle_1.html  article_2.html  article_3.html

目的:把 article 改为 bbs

方法1:
for file in $(ls *html); do  
    mv $file bbs_${file#*_}  
    # mv $file $(echo $file |sed -r 's/.*(_.*)/bbs\1/')  
    # mv $file $(echo $file |echo bbs_$(cut -d_ -f2)
方法2:
for file in $(find . -maxdepth 1 -name "*html"); do  
     mv $file bbs_${file#*_}done
方法3:
# rename article bbs *.html

把一个文档前五行中包含字母的行删掉,同时删除6到10行包含的所有字母

1)准备测试文件,文件名为2.txt

第1行1234567不包含字母  
第2行56789BBBBBB  
第3行67890CCCCCCCC  
第4行78asdfDDDDDDDDD  
第5行123456EEEEEEEE  
第6行1234567ASDF  
第7行56789ASDF  
第8行67890ASDF  
第9行78asdfADSF  
第10行123456AAAA  
第11行67890ASDF  
第12行78asdfADSF  
第13行123456AAAA

2)脚本如下:

#!/bin/bash  
###############################################################  
把一个文档前五行中包含字母的行删掉,同时删除6到10行包含的所有字母  
##############################################################  
sed -n '1,5'p 2.txt |sed '/[a-zA-Z]/'d  
sed -n '6,10'p 2.txt |sed s'/[a-zA-Z]//'g  
sed -n '11,$'p 2.txt  
#最终结果只是在屏幕上打印结果,如果想直接更改文件,可将输出结果写入临时文件中,再替换2.txt或者使用-i选项

10、统计当前目录中以 .html 结尾的文件总大

方法1:
# find . -name "*.html" -exec du -k {} \; |awk '{sum+=$1}END{print sum}'  
方法2:
for size in $(ls -l *.html |awk '{print $5}'); do  
    sum=$(($sum+$size))  
done  
echo $sum  

11、扫描主机端口状态

#!/bin/bash
HOST=$1
PORT="22 25 80 8080"
for PORT in $PORT; do
    if echo &>/dev/null > /dev/tcp/$HOST/$PORT; then
        echo "$PORT open"
    else
        echo "$PORT close"
    fi
done

用 shell 打印示例语句中字母数小于 6 的单词  

#示例语句:
#Bash also interprets a number of multi-character options.
#!/bin/bash
##############################################################
#shell打印示例语句中字母数小于6的单词
##############################################################
for s in Bash also interprets a number of multi-character options.
do
    n=`echo $s|wc -c`
    if [ $n -lt 6 ]
    then
        echo $s
    fi
done

12、输入数字运行相应命令

#!/bin/bash
##############################################################
#输入数字运行相应命令
##############################################################
echo "*cmd menu* 1-date 2-ls 3-who 4-pwd 0-exit "
while :
do
    #捕获用户键入值
    read -p "please input number :" n
    n1=`echo $n|sed s'/[0-9]//'g`
    #空输入检测
    if [ -z "$n" ]
    then
        continue
    fi
    #非数字输入检测
    if [ -n "$n1" ]
    then
        exit 0
    fi
    break
done
case $n in
    1)
        date
    ;;
    2)
        ls
    ;;
    3)
        who
    ;;
    4)
        pwd
    ;;
    0)
        break
    ;;
    #输入数字非1-4的提示
    *)
        echo "please input number is [1-4]"
esac

13、Expect 实现 SSH 免交互执行命令

Expect是一个自动交互式应用程序的工具,如telnet,ftp,passwd等。

需先安装expect软件包。

方法1:EOF 标准输出作为 expect 标准输入
#!/bin/bash
USER=root
PASS=123.com
IP=192.168.1.120
expect << EOFset timeout 30spawn ssh $USER@$IP   expect {    "(yes/no)" {send "yes\r"; exp_continue}    "password:" {send "$PASS\r"}
}
expect "$USER@*"  {send "$1\r"}
expect "$USER@*"  {send "exit\r"}
expect eof
EOF
方法2:
#!/bin/bash
USER=root
PASS=123.com
IP=192.168.1.120
expect -c "
    spawn ssh $USER@$IP
    expect {
        \"(yes/no)\" {send \"yes\r\"; exp_continue}
        \"password:\" {send \"$PASS\r\"; exp_continue}
        \"$USER@*\" {send \"df -h\r exit\r\"; exp_continue}
}"
方法3:将expect脚本独立出来

登录脚本:

# cat login.exp
#!/usr/bin/expect
set ip [lindex $argv 0]
set user [lindex $argv 1]
set passwd [lindex $argv 2]
set cmd [lindex $argv 3]
if { $argc != 4 } {
    puts "Usage: expect login.exp ip user passwd"
    exit 1
}
set timeout 30
spawn ssh $user@$ip
expect {
    "(yes/no)" {send "yes\r"; exp_continue}
    "password:" {send "$passwd\r"}
}
expect "$user@*"  {send "$cmd\r"}
expect "$user@*"  {send "exit\r"}
expect eof

执行命令脚本:写个循环可以批量操作多台服务器

#!/bin/bash
HOST_INFO=user_info.txt
for ip in $(awk '{print $1}' $HOST_INFO)
do
    user=$(awk -v I="$ip" 'I==$1{print $2}' $HOST_INFO)
    pass=$(awk -v I="$ip" 'I==$1{print $3}' $HOST_INFO)
    expect login.exp $ip $user $pass $1
done

Linux主机SSH连接信息:

# cat user_info.txt  
192.168.1.120 root 123456

创建10个用户,并分别设置密码,密码要求10位且包含大小写字母以及数字,最后需要把每个用户的密码存在指定文件中 。


#!/bin/bash
##############################################################
#创建10个用户,并分别设置密码,密码要求10位且包含大小写字母以及数字
#最后需要把每个用户的密码存在指定文件中
#前提条件:安装mkpasswd命令
##############################################################
#生成10个用户的序列(00-09)
for u in `seq -w 0 09`
do
    #创建用户
    useradd user_$u
    #生成密码
    p=`mkpasswd -s 0 -l 10`
    #从标准输入中读取密码进行修改(不安全)
    echo $p|passwd --stdin user_$u
    #常规修改密码
    echo -e "$p\n$p"|passwd user_$u
    #将创建的用户及对应的密码记录到日志文件中
    echo "user_$u $p" >> /tmp/userpassword
done

14、监控 httpd 的进程数,根据监控情况做相应处理

#!/bin/bash
###############################################################################################################################
#需求:
#1.每隔10s监控httpd的进程数,若进程数大于等于500,则自动重启Apache服务,并检测服务是否重启成功
#2.若未成功则需要再次启动,若重启5次依旧没有成功,则向管理员发送告警邮件,并退出检测
#3.如果启动成功,则等待1分钟后再次检测httpd进程数,若进程数正常,则恢复正常检测(10s一次),否则放弃重启并向管理员发送告警邮件,并退出检测
###############################################################################################################################
#计数器函数
check_service()
{
    j=0
    for i in `seq 1 5`
    do
        #重启Apache的命令
        /usr/local/apache2/bin/apachectl restart 2> /var/log/httpderr.log
        #判断服务是否重启成功
        if [ $? -eq 0 ]
        then
            break
        else
            j=$[$j+1]
        fi
        #判断服务是否已尝试重启5次
        if [ $j -eq 5 ]
        then
            mail.py
            exit
        fi
    done
}
while :
do
    n=`pgrep -l httpd|wc -l`
    #判断httpd服务进程数是否超过500
    if [ $n -gt 500 ]
    then
        /usr/local/apache2/bin/apachectl restart
        if [ $? -ne 0 ]
        then
            check_service
        else
            sleep 60
            n2=`pgrep -l httpd|wc -l`
            #判断重启后是否依旧超过500
            if [ $n2 -gt 500 ]
            then
                mail.py
                exit
            fi
        fi
    fi
    #每隔10s检测一次
    sleep 10
done

15、批量修改服务器用户密码

Linux主机SSH连接信息:旧密码

# cat old_pass.txt   
192.168.18.217  root    123456     22  
192.168.18.218  root    123456     22

内容格式:IP User Password Port

SSH远程修改密码脚本:新密码随机生成

#!/bin/bash  
OLD_INFO=old_pass.txt  
NEW_INFO=new_pass.txt  
for IP in $(awk '/^[^#]/{print $1}' $OLD_INFO); do  
   USER=$(awk -v I=$IP 'I==$1{print $2}' $OLD_INFO)  
   PASS=$(awk -v I=$IP 'I==$1{print $3}' $OLD_INFO)  
   PORT=$(awk -v I=$IP 'I==$1{print $4}' $OLD_INFO)  
   NEW_PASS=$(mkpasswd -l 8)  # 随机密码  
   echo "$IP   $USER   $NEW_PASS   $PORT" >> $NEW_INFO  
   expect -c "  
   spawn ssh -p$PORT $USER@$IP  
   set timeout 2  
   expect {  
       \"(yes/no)\" {send \"yes\r\";exp_continue}  
       \"password:\" {send \"$PASS\r\";exp_continue}  
       \"$USER@*\" {send \"echo \'$NEW_PASS\' |passwd --stdin $USER\r exit\r\";exp_continue}  
   }"  
done  

生成新密码文件:

# cat new_pass.txt   
192.168.18.217  root    n8wX3mU%      22  
192.168.18.218  root    c87;ZnnL      22

16、iptables 自动屏蔽访问网站频繁的IP

场景:恶意访问,安全防范

1)屏蔽每分钟访问超过200的IP

方法1:根据访问日志(Nginx为例)
#!/bin/bash
DATE=$(date +%d/%b/%Y:%H:%M)
ABNORMAL_IP=$(tail -n5000 access.log |grep $DATE |awk '{a[$1]++}END{for(i in a)if(a[i]>100)print i}')
#先tail防止文件过大,读取慢,数字可调整每分钟最大的访问量。awk不能直接过滤日志,因为包含特殊字符。
for IP in $ABNORMAL_IP; do
    if [ $(iptables -vnL |grep -c "$IP") -eq 0 ];
    then
        iptables -I INPUT -s $IP -j DROP
    fi
done
方法2:通过TCP建立的连接
#!/bin/bash
ABNORMAL_IP=$(netstat -an |awk '$4~/:80$/ && $6~/ESTABLISHED/{gsub(/:[0-9]+/,"",$5);{a[$5]++}}END{for(i in a)if(a[i]>100)print i}')
#gsub是将第五列(客户端IP)的冒号和端口去掉
for IP in $ABNORMAL_IP; do
    if [ $(iptables -vnL |grep -c "$IP") -eq 0 ]; then
        iptables -I INPUT -s $IP -j DROP
    fi
done

2)屏蔽每分钟SSH尝试登录超过10次的IP

方法1:通过lastb获取登录状态:
#!/bin/bash
DATE=$(date +"%a %b %e %H:%M") #星期月天时分  %e单数字时显示7,而%d显示07
ABNORMAL_IP=$(lastb |grep "$DATE" |awk '{a[$3]++}END{for(i in a)if(a[i]>10)print i}')
for IP in $ABNORMAL_IP; do
    if [ $(iptables -vnL |grep -c "$IP") -eq 0 ];
    then
        iptables -I INPUT -s $IP -j DROP
    fi
done
方法2:通过日志获取登录状态
#!/bin/bash  
DATE=$(date +"%b %d %H")  
ABNORMAL_IP="$(tail -n10000 /var/log/auth.log |grep "$DATE" |awk '/Failed/{a[$(NF-3)]++}END{for(i in a)if(a[i]>5)print i}')"  
for IP in $ABNORMAL_IP; do  
    if [ $(iptables -vnL |grep -c "$IP") -eq 0 ]; then  
        iptables -A INPUT -s $IP -j DROP          
        echo "$(date +"%F %T") - iptables -A INPUT -s $IP -j DROP" >>~/ssh-login-limit.log      
    fi  
done  

17、根据web访问日志,封禁请求量异常的IP,如IP在半小时后恢复正常,则解除封禁

#!/bin/bash
####################################################################################
#根据web访问日志,封禁请求量异常的IP,如IP在半小时后恢复正常,则解除封禁
####################################################################################
logfile=/data/log/access.log
#显示一分钟前的小时和分钟
d1=`date -d "-1 minute" +%H%M`
d2=`date +%M`
ipt=/sbin/iptables
ips=/tmp/ips.txt
block()
{
    #将一分钟前的日志全部过滤出来并提取IP以及统计访问次数
    grep '$d1:' $logfile|awk '{print $1}'|sort -n|uniq -c|sort -n > $ips
    #利用for循环将次数超过100的IP依次遍历出来并予以封禁
    for i in `awk '$1>100 {print $2}' $ips`
    do
        $ipt -I INPUT -p tcp --dport 80 -s $i -j REJECT
        echo "`date +%F-%T` $i" >> /tmp/badip.log
    done
}
unblock()
{
    #将封禁后所产生的pkts数量小于10的IP依次遍历予以解封
    for a in `$ipt -nvL INPUT --line-numbers |grep '0.0.0.0/0'|awk '$2<10 {print $1}'|sort -nr`
    do
        $ipt -D INPUT $a
    done
    $ipt -Z
}
#当时间在00分以及30分时执行解封函数
if [ $d2 -eq "00" ] || [ $d2 -eq "30" ]
then
    #要先解再封,因为刚刚封禁时产生的pkts数量很少
    unblock
    block
else
    block
fi

18、判断用户输入的是否为IP地址

方法1:
#!/bin/bash  
function check_ip(){  
    IP=$1  
    VALID_CHECK=$(echo $IP|awk -F. '$1< =255&&$2<=255&&$3<=255&&$4<=255{print "yes"}')  
    if echo $IP|grep -E "^[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}$">/dev/null; then  
        if [ $VALID_CHECK == "yes" ]; then  
            echo "$IP available."  
        else  
            echo "$IP not available!"  
        fi  
    else  
        echo "Format error!"  
    fi  
}  
check_ip 192.168.1.1  
check_ip 256.1.1.1
方法2:
#!/bin/bash  
function check_ip(){  
    IP=$1  
    if [[ $IP =~ ^[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}$ ]]; then  
        FIELD1=$(echo $IP|cut -d. -f1)  
        FIELD2=$(echo $IP|cut -d. -f2)  
        FIELD3=$(echo $IP|cut -d. -f3)  
        FIELD4=$(echo $IP|cut -d. -f4)  
        if [ $FIELD1 -le 255 -a $FIELD2 -le 255 -a $FIELD3 -le 255 -a $FIELD4 -le 255 ]; then  
            echo "$IP available."  
        else  
            echo "$IP not available!"  
        fi  
    else  
        echo "Format error!"  
    fi  
}  
check_ip 192.168.1.1  
check_ip 256.1.1.1
增加版:

加个死循环,如果IP可用就退出,不可用提示继续输入,并使用awk判断。

#!/bin/bash  
function check_ip(){  
    local IP=$1  
    VALID_CHECK=$(echo $IP|awk -F. '$1< =255&&$2<=255&&$3<=255&&$4<=255{print "yes"}')  
    if echo $IP|grep -E "^[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}\.[0-9]{1,3}$" >/dev/null; then  
        if [ $VALID_CHECK == "yes" ]; then  
            return 0  
        else  
            echo "$IP not available!"  
            return 1  
        fi  
    else  
        echo "Format error! Please input again."  
        return 1  
    fi  
}  
while true; do  
    read -p "Please enter IP: " IP  
    check_ip $IP  
    [ $? -eq 0 ] && break || continue  
done  

19 一个脚本同时运维上百台服务器,同时操作多台机器

之前我维护着上百台服务器的集群,如果每次需要在服务器上执行命令的时候,都要手动登录每台服务器进行操作的话,那也太疯狂了。

你想想,如果在上百台服务器的集群中,每台服务器只需要简单的执行一个相同的命令,那别说执行命令了,就是让你依次手动登录上百台服务器,那也够你受的了。

估计依次登录上百台服务器,给你三天时间你可能都登不完,那怎么办呢?有没有什么好的方法来解决这个问题呢?
说实话,当时并没有依次去手动登录每台服务器,因为我懒啊!依次登录那么多台服务器,整个人都会崩溃的。

我想能不能写个脚本,让这个脚本接收我要执行的命令(类似于java的命令模式),然后将命令依次分发到集群上所有的服务器中执行,这不就解决问题了吗?(顺序是登录、执行)。

不过,这里有个前提,那就是:需要提前配置好集群中每台服务器的主机名和IP地址的对应关系,能够互相使用主机名进行通信,并配置了SSH免密码登录(可以设置一个特殊账号)。

这一点,只要让运维在规划和分配服务器的时候,规划好就行了,无需后面再依次登录100台服务器单独设置。

为了方便大家理解,这里我们就假设集群中存在100台服务器,每台服务器的主机名为1.ltkj.com~100.ltkj.com(类似于一致性hash动态拼接DB名)。

前置1: 假设执行 ./test.sh a b c 这样一个命令,则可以使用下面的参数来获取一些值

一、Shell脚本变量的含义
1$#:会获取到 3,表示执行脚本传入参数的个数,统计的参数不包括 $02$@:会获取到 "a" "b" "c",也就是所有参数的列表,不包括 $03$*:也会获取到 "a" "b" "c"(不包括$0), 其值和 $@ 相同。但 "$*""$@" 有所不同。"$*" 把所有参数合并成一个字符串,而 "$@" 会得到一个字符串参数数组。

4$$:表示进程的id;Shell本身的PID(ProcessID,即脚本运行的当前 进程ID号)

5$!:Shell最后运行的后台Process的PID(后台运行的最后一个进程的 进程ID号)


6$0:对应 "./test.sh" 这个值。如果执行的是 ./work/test.sh, 则对应 ./work/test.sh 这个值,而不是只返回文件名本身的部分。

7$1:表示第一个参数

8$2:表示第二个参数

9$?:表示脚本执行的状态,0表示正常,其他表示错误

二、$*$@的差异
在shell中,$@$*都表示命令行所有的参数(不包含$0),但是$*将命令行所有的参数看成一个字符串,而$@则表现为数组。

————————————————

注意:如果传入的参数多于 9 个,则不能使用 $10 来引用第 10 个参数,而是要用 ${10} 来引用。即,需要用大括号{}把大于 9 的数字括起来。

例如,${10} 表示获取第 10 个参数的值,写为 $10 获取不到第 10 个参数的值。实际上,$10 相当于 ${1}0,也就是先获取 $1 的值,后面再跟上 0,如果 $1 的值是 "first",则 $10 的值是 "first0"。

————————————————

前置2: 单引号的一些注意的地方
在单引号中的任何字符都会原样输出,单引号字符串中的变量是无效的。

#!/bin/bash

name="abc"
echo '123 $name' 
   
echo '在单引号中使用\"$name\"也是没有用的哦'


————————————————
输出如下:

123 $name
在单引号中使用\"$name\"也是没有用的哦

本文将用到 $@ 或者 $* ,
接下来,编写一个名称为distribute_cmd.sh 的脚本,内容如下所示。
注意: 变量好像只能拼接后缀,前缀不能动态; 经研究发现,也可以,指定 -o ConnectTimeout=2

#!/bin/bash
pcount=$#
if (( pcount<1 )) ; then
 echo no args;
 exit;
fi
#先在本机上执行命令
echo ---先在本机上执行命令---------$host.ltkj.com-----------------
$@
#循环在集群中的远程节点上执行命令
for (( host=1 ; host<=100; host=host+1)) ; do
 newhost=ltkj$host
 echo ------------$newhost-----------------
 
 ## ssh ltkj$host $@
 ## 注意 $host 好像得拼在最后, $host.ltkj.com, 这样好像不行
 ## 研究发现:$host拼在开头并不是不行,是已经去尝试连接了 只是时间较长,没有及时报出异常而已,加 2s超时,很快就能看到报错信息
 ssh -o ConnectTimeout=2 $host.ltj.com $@
 
done;

这个脚本的含义为:接收传递进来的命令,将命令分发到主机名为1.ltkj.com~100.ltkj.com的服务器上执行。

也就是说,使用这个脚本我们能够做到:在集群中“任意”服务器上执行相同的命令。

接下来,为distribute_cmd.sh脚本赋予可执行权限,如下所示:

chmod a+x ./distribute_cmd.sh

使用格式如下:

./distribute_cmd.sh 在服务器上执行的完整命令

使用示例

在集群中的每台服务器的/home目录下创建hello.txt文,内容为hello world

./distribute_cmd.sh echo "hello world" >> /home/hello.txt

查看集群中每台服务器上hello.txt文件的内容

./distribute_cmd.sh cat /home/hello.txt

删除集群中每台服务器上的hello.txt文件

./distribute_cmd.sh rm -rf /home/hello.txt

变更拼在前面 :
在这里插入图片描述
变量拼在前面,只是去ssh 尝试连接,响应时间较延迟,所以误会以为不可以,其实可以的
在这里插入图片描述

打完收工。
所以说 有时候,拿到任务,不要盲目地去执行。在做事情之前,要先思考下有没有更好的、更加高效的解决方案。

既有效率,又有质量,才是做事情需要追求的目标。

20、一键查看服务器利用率

#!/bin/bash
function cpu(){
 
 util=$(vmstat | awk '{if(NR==3)print $13+$14}')
 iowait=$(vmstat | awk '{if(NR==3)print $16}')
 echo "CPU -使用率:${util}% ,等待磁盘IO相应使用率:${iowait}:${iowait}%"
 
}
function memory (){
 
 total=`free -m |awk '{if(NR==2)printf "%.1f",$2/1024}'`
    used=`free -m |awk '{if(NR==2) printf "%.1f",($2-$NF)/1024}'`
    available=`free -m |awk '{if(NR==2) printf "%.1f",$NF/1024}'`
    echo "内存 - 总大小: ${total}G , 使用: ${used}G , 剩余: ${available}G"
}
disk(){
 
 fs=$(df -h |awk '/^\/dev/{print $1}')
    for p in $fs; do
        mounted=$(df -h |awk '$1=="'$p'"{print $NF}')
        size=$(df -h |awk '$1=="'$p'"{print $2}')
        used=$(df -h |awk '$1=="'$p'"{print $3}')
        used_percent=$(df -h |awk '$1=="'$p'"{print $5}')
        echo "硬盘 - 挂载点: $mounted , 总大小: $size , 使用: $used , 使用率: $used_percent"
    done
 
}
function tcp_status() {
    summary=$(ss -antp |awk '{status[$1]++}END{for(i in status) printf i":"status[i]" "}')
    echo "TCP连接状态 - $summary"
}
cpu
memory
disk
tcp_status

21、找出占用CPU 内存过高的进程

#!/bin/bash
echo "-------------------CUP占用前10排序--------------------------------"
ps -eo user,pid,pcpu,pmem,args --sort=-pcpu  |head -n 10
echo "-------------------内存占用前10排序--------------------------------"
ps -eo user,pid,pcpu,pmem,args --sort=-pmem  |head -n 10

22、查看网卡的实时流量

#!/bin/bash
eth0=$1
echo  -e    "流量进入--流量传出    "
while true; do
 old_in=$(cat /proc/net/dev |grep $eth0 |awk '{print $2}')
 old_out=$(cat /proc/net/dev |grep $eth0 |awk '{print $10}')
 sleep 1
 new_in=$(cat /proc/net/dev |grep $eth0 |awk '{print $2}')
 new_out=$(cat /proc/net/dev |grep $eth0 |awk '{print $10}')
 in=$(printf "%.1f%s" "$((($new_in-$old_in)/1024))" "KB/s")
 out=$(printf "%.1f%s" "$((($new_out-$old_out)/1024))" "KB/s")
 echo "$in $out"
done

23、监控多台服务器磁盘利用率脚本

#!/bin/bash
HOST_INFO=host.info
for IP in $(awk '/^[^#]/{print $1}' $HOST_INFO); do
 #取出用户名和端口
    USER=$(awk -v ip=$IP 'ip==$1{print $2}' $HOST_INFO)
    PORT=$(awk -v ip=$IP 'ip==$1{print $3}' $HOST_INFO)
 #创建临时文件,保存信息
    TMP_FILE=/tmp/disk.tmp
 #通过公钥登录获取主机磁盘信息
    ssh -p $PORT $USER@$IP 'df -h' > $TMP_FILE
 #分析磁盘占用空间
    USE_RATE_LIST=$(awk 'BEGIN{OFS="="}/^\/dev/{print $NF,int($5)}' $TMP_FILE)
 #循环磁盘列表,进行判断
    for USE_RATE in $USE_RATE_LIST; do
  #取出等号(=)右边的值 挂载点名称
        PART_NAME=${USE_RATE%=*}  
  #取出等号(=)左边的值  磁盘利用率
        USE_RATE=${USE_RATE#*=}
  #进行判断
        if [ $USE_RATE -ge 80 ]; then
            echo "Warning: $PART_NAME Partition usage $USE_RATE%!"
    echo "服务器$IP的磁盘空间占用过高,请及时处理" | mail -s "空间不足警告" 你的qq@qq.com
  else
   echo "服务器$IP$PART_NAME目录空间良好"
        fi
    done
done

24、批量主机远程执行命令脚本


#!/bin/bash
COMMAND=$*
HOST_INFO=host.info
for IP in $(awk '/^[^#]/{print $1}' $HOST_INFO); do
    USER=$(awk -v ip=$IP 'ip==$1{print $2}' $HOST_INFO)
    PORT=$(awk -v ip=$IP 'ip==$1{print $3}' $HOST_INFO)
    PASS=$(awk -v ip=$IP 'ip==$1{print $4}' $HOST_INFO)
    expect -c "
       spawn ssh -p $PORT $USER@$IP
       expect {
          \"(yes/no)\" {send \"yes\r\"; exp_continue}
          \"password:\" {send \"$PASS\r\"; exp_continue}
          \"$USER@*\" {send \"$COMMAND\r exit\r\"; exp_continue}
       }
    "
    echo "-------------------"
done 

25、监控MySQL主从同步状态是否异常脚本

#!/bin/bash  
HOST=localhost
USER=root
PASSWD=123.com
IO_SQL_STATUS=$(mysql -h$HOST -u$USER -p$PASSWD -e 'show slave status\G' 2>/dev/null |awk '/Slave_.*_Running:/{print $1$2}')
for i in $IO_SQL_STATUS; do
    THREAD_STATUS_NAME=${i%:*}
    THREAD_STATUS=${i#*:}
    if [ "$THREAD_STATUS" != "Yes" ]; then
        echo "Error: MySQL Master-Slave $THREAD_STATUS_NAME status is $THREAD_STATUS!" |mail -s "Master-Slave Staus" xxx@163.com
    fi
done

26、MySql数据库备份脚本

shell 分库备份
mysqldump -uroot -pxxx -B A > A.sql


#!/bin/bash
DATE=$(date +%F_%H-%M-%S)
HOST=localhost
USER=backup
PASS=123.com
BACKUP_DIR=/data/db_backup
DB_LIST=$(mysql -h$HOST -u$USER -p$PASS -s -e "show databases;" 2>/dev/null |egrep -v "Database|information_schema|mysql|performance_schema|sys")
 
for DB in $DB_LIST; do
    BACKUP_NAME=$BACKUP_DIR/${DB}_${DATE}.sql
    if ! mysqldump -h$HOST -u$USER -p$PASS -B $DB > $BACKUP_NAME 2>/dev/null; then
        echo "$BACKUP_NAME 备份失败!"
    fi
done

分表备份
mysqldump -uroot -pxxx -A t > t.sql

#!/bin/bash
DATE=$(date +%F_%H-%M-%S)
HOST=localhost
USER=backup
PASS=123.com
BACKUP_DIR=/data/db_backup
DB_LIST=$(mysql -h$HOST -u$USER -p$PASS -s -e "show databases;" 2>/dev/null |egrep -v "Database|information_schema|mysql|performance_schema|sys")
 
for DB in $DB_LIST; do
    BACKUP_DB_DIR=$BACKUP_DIR/${DB}_${DATE}
    [ ! -d $BACKUP_DB_DIR ] && mkdir -p $BACKUP_DB_DIR &>/dev/null
    TABLE_LIST=$(mysql -h$HOST -u$USER -p$PASS -s -e "use $DB;show tables;" 2>/dev/null)
    for TABLE in $TABLE_LIST; do
        BACKUP_NAME=$BACKUP_DB_DIR/${TABLE}.sql 
        if ! mysqldump -h$HOST -u$USER -p$PASS $DB $TABLE > $BACKUP_NAME 2>/dev/null; then
            echo "$BACKUP_NAME 备份失败!"
        fi
    done
done

27、Nginx访问日志分析

#!/bin/bash
# 日志格式: $remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"
LOG_FILE=$1
echo "统计访问最多的10个IP"
awk '{a[$1]++}END{print "UV:",length(a);for(v in a)print v,a[v]}' $LOG_FILE |sort -k2 -nr |head -10
echo "----------------------"
 
echo "统计时间段访问最多的IP"
awk '$4>="[01/Dec/2018:13:20:25" && $4<="[27/Nov/2018:16:20:49"{a[$1]++}END{for(v in a)print v,a[v]}' $LOG_FILE |sort -k2 -nr|head -10
echo "----------------------"
 
echo "统计访问最多的10个页面"
awk '{a[$7]++}END{print "PV:",length(a);for(v in a){if(a[v]>10)print v,a[v]}}' $LOG_FILE |sort -k2 -nr
echo "----------------------"
 
echo "统计访问页面状态码数量"
awk '{a[$7" "$9]++}END{for(v in a){if(a[v]>5)print v,a[v]}}' $LOG_FILE |sort -k3 -nr

28、Nginx访问日志自动按天(周、月)切割

#!/bin/bash
#nginx日志目录
LOG_DIR=/www/server/nginx/logs
#获取到上一天的时间
YESTERDAY_TIME=$(date -d "yesterday" +%F)
#归档日志取时间
LOG_MONTH_DIR=$LOG_DIR/$(date +"%Y-%m")
#归档日志的名称
LOG_FILE_LIST="access.log"
 
for LOG_FILE in $LOG_FILE_LIST; do
    [ ! -d $LOG_MONTH_DIR ] && mkdir -p $LOG_MONTH_DIR
    mv $LOG_DIR/$LOG_FILE $LOG_MONTH_DIR/${LOG_FILE}_${YESTERDAY_TIME}
done
 
kill -USR1 $(cat $LOG_DIR/nginx.pid)

29、自动发布Java项目(Tomcat)

#!/bin/bash
DATE=$(date +%F_%T)
 
TOMCAT_NAME=$1
TOMCAT_DIR=/usr/local/$TOMCAT_NAME
ROOT=$TOMCAT_DIR/webapps/ROOT
 
BACKUP_DIR=/data/backup
WORK_DIR=/tmp
PROJECT_NAME=tomcat-java-demo
 
# 拉取代码
cd $WORK_DIR
if [ ! -d $PROJECT_NAME ]; then
   git clone https://github.com/lizhenliang/tomcat-java-demo
   cd $PROJECT_NAME
else
   cd $PROJECT_NAME
   git pull
fi
 
# 构建
mvn clean package -Dmaven.test.skip=true
if [ $? -ne 0 ]; then
   echo "maven build failure!"
   exit 1
fi
 
# 部署
TOMCAT_PID=$(ps -ef |grep "$TOMCAT_NAME" |egrep -v "grep|$$" |awk 'NR==1{print $2}')
[ -n "$TOMCAT_PID" ] && kill -9 $TOMCAT_PID
[ -d $ROOT ] && mv $ROOT $BACKUP_DIR/${TOMCAT_NAME}_ROOT$DATE
unzip $WORK_DIR/$PROJECT_NAME/target/*.war -d $ROOT
$TOMCAT_DIR/bin/startup.sh 

30、查看linux服务器内存 硬盘等运行状态

在这里插入图片描述

#!/bin/bash
function cpu() {
    printf "%-13s %-10s\n" "使用率" "等待磁盘IO的时间百分比"
    printf "%-10s %-10s\n" "------" "----------------------"
    util=`vmstat |awk '{if(NR==3)print 100-$15}'`
    #user=`vmstat |awk '{if(NR==3)print $13"%"}'`
    #sys=`vmstat |awk '{if(NR==3)print $14"%"}'`
    iowait=`vmstat |awk '{if(NR==3)print $16}'`
    printf "%-10s %-10s\n" "${util}%" "${iowait}%"
}
function memory() {
    printf "%-13s %-12s %-10s\n" "总大小" "使用" "剩余"
    printf "%-10s %-10s %-10s\n" "------" "------" "------"
    total=`free -m |awk '{if(NR==2)printf "%.1f",$2/1024}'`
    used=`free -m |awk '{if(NR==2) printf "%.1f",($2-$NF)/1024}'`
    available=`free -m |awk '{if(NR==2) printf "%.1f",$NF/1024}'`
    printf "%-10s %-10s %-10s\n" "${total}G" "${used}G" "${available}G"
}
function disk() {
    printf "%-13s %-13s %-12s %-10s\n" "挂载点" "总大小" "使用" "使用率"
    printf "%-10s %-10s %-10s %-10s\n" "------" "------" "------" "------"
    fs=`df -h |awk '/^\/dev/{print $1}'`
    for p in $fs; do
        mounted=`df -h |awk '$1=="'$p'"{print $NF}'`
        size=`df -h |awk '$1=="'$p'"{print $2}'`
        used=`df -h |awk '$1=="'$p'"{print $3}'`
        used_percent=`df -h |awk '$1=="'$p'"{print $5}'`
        printf "%-10s %-10s %-10s %-10s\n" "$mounted" "$size" "$used" "$used_percent"
    done
}
function process_cpu_top() {
    printf "%-10s %-10s %-12s %-10s\n" "PID" "CPU" "内存" "命令"
    printf "%-10s %-10s %-10s %-10s\n" "------" "------" "------" "------"
    tmp_file=/tmp/cputop
    ps -eo pid,pcpu,pmem,command --sort=-pcpu |awk 'NR>1&&NR<=4' > $tmp_file
    while read line; do
        pid=`echo $line |awk '{print $1}'`
        cpu=`echo $line |awk '{print $2}'`
        mem=`echo $line |awk '{print $3}'`
        com=`echo $line |awk '{print $4}'`
        printf "%-10s %-10s %-10s %-10s\n" "$pid" "${cpu}%" "${mem}%" "$com"
    done < $tmp_file
}
function process_memory_top() {
    printf "%-10s %-12s %-10s %-10s\n" "PID" "内存" "CPU" "命令"
    printf "%-10s %-10s %-10s %-10s\n" "------" "------" "------" "------"
    tmp_file=/tmp/cputop
    ps -eo pid,pcpu,pmem,command --sort=-pmem |awk 'NR>1&&NR<=4' > $tmp_file
    while read line; do
        pid=`echo $line |awk '{print $1}'`
        cpu=`echo $line |awk '{print $2}'`
        mem=`echo $line |awk '{print $3}'`
        com=`echo $line |awk '{print $4}'`
        printf "%-10s %-10s %-10s %-10s\n" "$pid" "${mem}%" "${cpu}%" "$com"
    done < $tmp_file
}

echo "################# CPU #################"
cpu
echo "################# 内存 #################"
memory
echo "################# 硬盘 #################"
disk
echo "################# 占用CPU最高的前三个进程 #################"
process_cpu_top
echo "################# 占用内存最高的前三个进程 #################"
process_memory_top

31、后端优雅下线,动态交替修改后端服务端口号

# sed 在当前文件中 交替使用两个端口
PORT=8100
if [ $PORT -eq 8100 ];then
        echo "进程 $PORT存在"
        sed -i '0,/PORT/s/8100/8101/g' t.sh
else
        echo "进程$PORT存在"
        sed -i '0,/PORT/s/8101/8100/g' t.sh
fi

32、

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值