AWK命令常见用法

1、查看有多少个IP访问:

awk '{print $1}' log_file|sort|uniq|wc -l

   
   
  • 1

2、查看某一个页面被访问的次数:

grep "/index.php" log_file | wc -l

   
   
  • 1

3、查看每一个IP访问了多少个页面:

awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt

sort -n -t ’ ’ -k 2 log.txt # 配合sort进一步排序

  • 1
  • 2
  • 3

4、将每个IP访问的页面数进行从小到大排序:

awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n

 
 
  • 1

5、查看某一个IP访问了哪些页面:

grep ^111.111.111.111 log_file| awk '{print $1,$7}'

 
 
  • 1

6、去掉搜索引擎统计的页面:

awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l

 
 
  • 1

7、查看2015年8月16日14时这一个小时内有多少IP访问:

awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l

 
 
  • 1

8、查看访问前十个ip地址

awk '{print $1}' |sort|uniq -c|sort -nr |head -10 access_log

 
 
  • 1

uniq -c 相当于分组统计并把统计数放在最前面

cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10

cat access.log|awk '{counts[$(11)]+=1}; END {for(url in counts) print counts[url], url}

  • 1
  • 2
  • 3

9、访问次数最多的10个文件或页面

cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr | head -10

 
 
  • 1

访问量最大的前20个ip

cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr|head -20

awk ‘{print $1}’ log_file |sort -n -r |uniq -c | sort -n -r | head -20

  • 1
  • 2
  • 3

10、通过子域名访问次数,依据referer来计算,稍有不准

cat access.log | awk '{print $11}' | sed -e ' s/http:\/\///' -e ' s/\/.*//' | sort | uniq -c | sort -rn | head -20

 
 
  • 1

11、列出传输大小最大的几个文件

cat www.access.log |awk '($7~/\.php/){print $10 " " $1 " " $4 " " $7}'|sort -nr|head -100

 
 
  • 1

12、列出输出大于200000byte(约200kb)的页面以及对应页面发生次数

cat www.access.log |awk '($10 > 200000 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

 
 
  • 1

13、如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面

cat www.access.log |awk '($7~/\.php/){print $NF " " $1 " " $4 " " $7}'|sort -nr|head -100

 
 
  • 1

14、列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

cat www.access.log |awk '($NF > 60 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

 
 
  • 1

15、列出传输时间超过 30 秒的文件

cat www.access.log |awk '($NF > 30){print $7}'|sort -n|uniq -c|sort -nr|head -20

 
 
  • 1

16、列出当前服务器每一进程运行的数量,倒序排列

ps -ef | awk -F ' ' '{print $8 " " $9}' |sort | uniq -c |sort -nr |head -20

 
 
  • 1

17、查看apache当前并发访问数

对比httpd.conf中MaxClients的数字差距多少

netstat -an | grep ESTABLISHED | wc -l

 
 
  • 1

18、可以使用如下参数查看数据

ps -ef|grep httpd|wc -l
1388

 
 
  • 1
  • 2

统计httpd进程数,连个请求会启动一个进程,使用于Apache服务器。
表示Apache能够处理1388个并发请求,这个值Apache可根据负载情况自动调整

netstat -nat|grep -i "80"|wc -l
4341

 
 
  • 1
  • 2

netstat -an会打印系统当前网络链接状态,而grep -i "80"是用来提取与80端口有关的连接的,wc -l进行连接数统计。
最终返回的数字就是当前所有80端口的请求总数

netstat -na|grep ESTABLISHED|wc -l
376

 
 
  • 1
  • 2

netstat -an会打印系统当前网络链接状态,而grep ESTABLISHED 提取出已建立连接的信息。 然后wc -l统计
最终返回的数字就是当前所有80端口的已建立连接的总数。

netstat -nat||grep ESTABLISHED|wc

 
 
  • 1

可查看所有建立连接的详细记录

19、输出每个ip的连接数,以及总的各个状态的连接数

netstat -n | awk '/^tcp/ {n=split($(NF-1),array,":");if(n<=2)++S[array[(1)]];else++S[array[(4)]];++s[$NF];++N} END {for(a in S){printf("%-20s %s\n", a, S[a]);++I}printf("%-20s %s\n","TOTAL_IP",I);for(a in s) printf("%-20s %s\n",a, s[a]);printf("%-20s %s\n","TOTAL_LINK",N);}'

 
 
  • 1

20、其他的收集

分析日志文件下 2012-05-04 访问页面最高 的前20个 URL 并排序

cat access.log |grep '04/May/2012'| awk '{print $11}'|sort|uniq -c|sort -nr|head -20

 
 
  • 1

查询受访问页面的URL地址中 含有 www.abc.com 网址的 IP 地址

cat access_log | awk '($11~/\www.abc.com/){print $1}'|sort|uniq -c|sort -nr

 
 
  • 1

获取访问最高的10个IP地址 同时也可以按时间来查询

cat linewow-access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10

 
 
  • 1

时间段查询日志时间段的情况

cat log_file | egrep '15/Aug/2015|16/Aug/2015' |awk '{print $1}'|sort|uniq -c|sort -nr|head -10

 
 
  • 1

分析2015/8/15 到 2015/8/16 访问"/index.php?g=Member&m=Public&a=sendValidCode"的IP倒序排列

cat log_file | egrep '15/Aug/2015|16/Aug/2015' | awk '{if($7 == "/index.php?g=Member&m=Public&a=sendValidCode") print $1,$7}'|sort|uniq -c|sort -nr

 
 
  • 1

($7~/.php/) $7里面包含.php的就输出,本句的意思是最耗时的一百个PHP页面

cat log_file |awk '($7~/\.php/){print $NF " " $1 " " $4 " " $7}'|sort -nr|head -100

 
 
  • 1

列出最最耗时的页面(超过60秒的)的以及对应页面发生次数

cat access.log |awk '($NF > 60 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

 
 
  • 1

统计网站流量(G)

cat access.log |awk '{sum+=$10} END {print sum/1024/1024/1024}'

 
 
  • 1

统计404的连接

awk '($9 ~/404/)' access.log | awk '{print $9,$7}' | sort

 
 
  • 1

统计http status

cat access.log |awk '{counts[$(9)]+=1}; END {for(code in counts) print code, counts[code]}' 
cat access.log |awk '{print $9}'|sort|uniq -c|sort -rn

 
 
  • 1
  • 2

每秒并发

watch "awk '{if($9~/200|30|404/)COUNT[$4]++}END{for( a in COUNT) print a,COUNT[a]}' log_file|sort -k 2 -nr|head -n10"

 
 
  • 1

带宽统计

cat apache.log |awk '{if($7~/GET/) count++}END{print "client_request="count}' 
cat apache.log |awk '{BYTE+=$11}END{print "client_kbyte_out="BYTE/1024"KB"}'

 
 
  • 1
  • 2

找出某天访问次数最多的10个IP

cat /tmp/access.log | grep "20/Mar/2011" |awk '{print $3}'|sort |uniq -c|sort -nr|head

 
 
  • 1

当天ip连接数最高的ip都在干些什么

cat access.log | grep "10.0.21.17" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10

 
 
  • 1

小时单位里ip连接数最多的10个时段

awk -vFS="[:]" '{gsub("-.*","",$1);num[$2" "$1]++}END{for(i in num)print i,num[i]}' log_file | sort -n -k 3 -r | head -10

 
 
  • 1

找出访问次数最多的几个分钟

awk '{print $1}' access.log | grep "20/Mar/2011" |cut -c 14-18|sort|uniq -c|sort -nr|head

 
 
  • 1

取5分钟日志

if [ $DATE_MINUTE != $DATE_END_MINUTE ] ;then 
#则判断开始时间戳与结束时间戳是否相等
START_LINE=sed -n "/$DATE_MINUTE/=" $APACHE_LOG|head -n1 
#如果不相等,则取出开始时间戳的行号,与结束时间戳的行号

 
 
  • 1
  • 2
  • 3
  • 4

查看tcp的链接状态

netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn 

netstat -n | awk ‘/^tcp/ {++S[$NF]};END {for(a in S) print a, S[a]}’

netstat -n | awk ‘/^tcp/ {++state[$NF]}; END {for(key in state) print key,"\t",state[key]}’

netstat -n | awk ‘/^tcp/ {++arr[$NF]};END {for(k in arr) print k,"\t",arr[k]}’

netstat -n |awk ‘/^tcp/ {print $NF}’|sort|uniq -c|sort -rn

netstat -ant | awk ‘{print $NF}’ | grep -v ‘[a-z]’ | sort | uniq -cnetstat -ant|awk ‘/ip:80/{split($5,ip,"😊;++S[ip[1]]}END{for (a in S) print S[a],a}’ |sort -n

netstat -ant|awk ‘/:80/{split($5,ip,"😊;++S[ip[1]]}END{for (a in S) print S[a],a}’ |sort -rn|head -n 10

awk ‘BEGIN{printf (“http_code\tcount_num\n”)}{COUNT[$10]++}END{for (a in COUNT) printf a"\t\t"COUNT[a]"\n"}’

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

查找请求数前20个IP(常用于查找攻来源):

netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20 

netstat -ant |awk ‘/:80/{split($5,ip,"😊;++A[ip[1]]}END{for(i in A) print A[i],i}’ |sort -rn|head -n20

  • 1
  • 2
  • 3

用tcpdump嗅探80端口的访问看看谁最高

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr |head -20

 
 
  • 1

查找较多time_wait连接

netstat -n|grep TIME_WAIT|awk '{print $5}'|sort|uniq -c|sort -rn|head -n20

 
 
  • 1

找查较多的SYN连接

netstat -an | grep SYN | awk '{print $5}' | awk -F: '{print $1}' | sort | uniq -c | sort -nr | more

 
 
  • 1

根据端口列进程

netstat -ntlp | grep 80 | awk '{print $7}' | cut -d/ -f1

 
 
  • 1

查看了连接数和当前的连接数

netstat -ant | grep $ip:80 | wc -l 
netstat -ant | grep $ip:80 | grep EST | wc -l

 
 
  • 1
  • 2

查看IP访问次数

netstat -nat|grep ":80"|awk '{print $5}' |awk -F: '{print $1}' | sort| uniq -c|sort -n

 
 
  • 1

Linux命令分析当前的链接状况

netstat -n | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'

watch “netstat -n | awk ‘/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}’”

通过watch可以一直监控

LAST_ACK 5 #关闭一个TCP连接需要从两个方向上分别进行关闭,双方都是通过发送FIN来表示单方向数据的关闭,当通信双方发送了最后一个FIN的时候,发送方此时处于LAST_ACK状态,当发送方收到对方的确认(Fin的Ack确认)后才真正关闭整个TCP连接;
SYN_RECV 30 # 表示正在等待处理的请求数;
ESTABLISHED 1597 # 表示正常数据传输状态;
FIN_WAIT1 51 # 表示server端主动要求关闭tcp连接;
FIN_WAIT2 504 # 表示客户端中断连接;
TIME_WAIT 1057 # 表示处理完毕,等待超时结束的请求数;

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
awk –F :{print $2}’ datafile

 
 
  • 1

#以:分隔打印第二列

awk –F :/^Dan/{print $2}’ datafile

 
 
  • 1

#以:分隔打印以Dan开头行的第二列内容

awk –F :/^[CE]/{print $1}’ datafile 

 
 
  • 1

#打印以C或E开头行的第一列

awk –F :{if(length($1) == 4) print $1}’ datafile 

 
 
  • 1

#打印以:分隔且长度为4字符的第一列内容

awk –F :/[916]/{print $1}’ datafile

 
 
  • 1

#匹配916的行以:分隔打印第一列

awk -F : '/^Vinh/{print "a"$5}' 2.txt

 
 
  • 1

#显示以Dan开头行并在第五列前加上a

awk –F :{print $2,”$1}’  datafile

 
 
  • 1

#打印第二列第一列并以,分隔

awk -F : '($5 == 68900) {print $1}' 2.txt

 
 
  • 1

#以:分隔打印第五列是68900的行第一列

awk -F : '{if(length($1) == 11) print $1}' 2.txt

 
 
  • 1

#打印以:分隔且长度为4字符的第一列内容

awk -F : '$1~/Tommy Savage/ {print $5}' 2.txt
awk -F : '($1 == "Tommy Savage") {print $5}' 2.txt

 
 
  • 1
  • 2

#打印以:分隔且第一列为Tommy Savage的第五列内容

ll |awk 'BEGIN {size=0;} {size=size+$5;} END{print "[end]size is ",size}'

 
 
  • 1

#统计目录个的文件所有的字节数

awk 'BEGIN{size=0;} {size=size+$5;} END{print "[end]size is ",size/1024/1024,"M"}' 

 
 
  • 1

#以M为单位显示目录下的所有字节数

awk 'BEGIN{a=10;a+=10;print a}'
20   

 
 
  • 1
  • 2

#a+10等价于 a=a+10

echo|awk 'BEGIN{a="100testaaa"}a~/test/{print "ok"}'   

 
 
  • 1

#正则匹配a 是否有test字符,成立打印ok

awk 'BEGIN{a="b";print a=="b"?"ok":"err"}'
ok
awk 'BEGIN{a="b";print a=="c"?"ok":"err"}'
err

 
 
  • 1
  • 2
  • 3
  • 4

#三目运算符?:

awk '/root/{print $0}' passwd 

 
 
  • 1

#匹配所有包含root的行

awk -F: '$5~/root/{print $0}' passwd  

 
 
  • 1

以分号作为分隔符,匹配第5个字段是root的行

ifconfig eth0|awk 'BEGIN{FS="[[:space:]:]+"} NR==2{print $4}'

 
 
  • 1

#打印IP地址

awk '{print toupper($0)}' test.txt

 
 
  • 1

#toupper是awk内置函数,将所小写字母转换成大写

10 个Linux Awk文本处理经典案例

1、分析访问日志(Nginx为例)

默认日志格式:

'$remote_addr - $remote_user [$time_local] "$request" $status $body_bytes_sent "$http_referer" "$http_user_agent" "$http_x_forwarded_for"'

 
 
  • 1

统计访问IP次数:

# awk '{a[$1]++}END{for(v in a)print v,a[v]}' access.log

 
 
  • 1

统计访问访问大于100次的IP:

# awk '{a[$1]++}END{for(v in a){if(a[v]>100)print v,a[v]}}' access.log

 
 
  • 1

统计访问IP次数并排序取前10:

# awk '{a[$1]++}END{for(v in a)print v,a[v]|"sort -k2 -nr |head -10"}' access.log

 
 
  • 1

统计时间段访问最多的IP:

# awk '$4>="[02/Jan/2017:00:02:00" && $4<="[02/Jan/2017:00:03:00"{a[$1]++}END{for(v in a)print v,a[v]}' access.log

 
 
  • 1

统计上一分钟访问量:

# date=$(date -d '-1 minute' +%d/%d/%Y:%H:%M)
# awk -vdate=$date '$4~date{c++}END{printc}' access.log

 
 
  • 1
  • 2

统计访问最多的10个页面:

# awk '{a[$7]++}END{for(v in a)print v,a[v]|"sort -k1 -nr|head -n10"}' access.log

 
 
  • 1

统计每个URL数量和返回内容总大小:

# awk '{a[$7]++;size[$7]+=$10}END{for(v in a)print a[v],v,size[v]}' access.log

 
 
  • 1

统计每个IP访问状态码数量:

# awk '{a[$1" "$9]++}END{for(v in a)print v,a[v]}' access.log

 
 
  • 1

统计访问IP是404状态次数:

# awk '{if($9~/404/)a[$1" "$9]++}END{for(i in a)print v,a[v]}' access.log

 
 
  • 1

2、两个文件差异对比

生成测试内容:

# seq 1 5 > a
# seq 3 7 > b

 
 
  • 1
  • 2

找出b文件在a文件相同记录:

方法1:

# awk 'FNR==NR{a[$0];next}{if($0 in a)print $0}' a b
3
4
5
# awk 'FNR==NR{a[$0];next}{if($0 in a)print FILENAME,$0}' a b
b 3
b 4
b 5
# awk 'FNR==NR{a[$0]}NR>FNR{if($0 ina)print $0}' a b
3
4
5
# awk 'FNR==NR{a[$0]=1;next}(a[$0]==1)' a b  # a[$0]是通过b文件每行获取值,如果是1说明有
# awk 'FNR==NR{a[$0]=1;next}{if(a[$0]==1)print}' a b
3
4
5

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

方法2:

# awk 'FILENAME=="a"{a[$0]}FILENAME=="b"{if($0 in a)print $0}' a b
3
4
5

方法3
# awk ‘ARGIND1{a[$0]=1}ARGIND2 && a[$0]==1’ a b
3
4
5

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

找出b文件在a文件不同记录:

方法1:

# awk 'FNR==NR{a[$0];next}!($0 in a)' a b
6
7
# awk 'FNR==NR{a[$0]=1;next}(a[$0]!=1)' a b
# awk 'FNR==NR{a[$0]=1;next}{if(a[$0]!=1)print}' a b
6
7

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

方法2:

# awk 'FILENAME=="a"{a[$0]=1}FILENAME=="b" && a[$0]!=1' a b

 
 
  • 1

方法3:

# awk 'ARGIND==1{a[$0]=1}ARGIND==2 && a[$0]!=1' a b

 
 
  • 1

3、合并两个文件

生成测试内容:

# cat a
zhangsan 20
lisi 23
wangwu 29
# cat b
zhangsan man
lisi woman
wangwu man

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

将a文件合并到b文件:
方法1:

# awk 'FNR==NR{a[$1]=$0;next}{print a[$1],$2}' a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man

 
 
  • 1
  • 2
  • 3
  • 4

方法2:

# awk 'FNR==NR{a[$1]=$0}NR>FNR{print a[$1],$2}' a b
zhangsan 20 man
lisi 23 woman
wangwu 29 man

 
 
  • 1
  • 2
  • 3
  • 4

将a文件相同IP的服务名合并:

# cat a
192.168.1.1: httpd
192.168.1.1: tomcat
192.168.1.2: httpd
192.168.1.2: postfix
192.168.1.3: mysqld
192.168.1.4: httpd
# awk 'BEGIN{FS=":";OFS=":"}{a[$1]=a[$1] $2}END{for(v in a)print v,a[v]}' a
192.168.1.4: httpd
192.168.1.1: httpd tomcat
192.168.1.2: httpd postfix
192.168.1.3: mysqld

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

解读

数组a存储是$1=a[$1] $2,第一个a[$1]是以第一个字段为下标,值是a[$1] $2,也就是$1=a[$1] $2,值的a[$1]是用第一个字段为下标获取对应的值,但第一次数组a还没有元素,那么a[$1]是空值,此时数组存储是192.168.1.1=httpd,再遇到192.168.1.1时,a[$1]通过第一字段下标获得上次数组的httpd,把当前处理的行第二个字段放到上一次同下标的值后面,作为下标192.168.1.1的新值。此时数组存储是192.168.1.1=httpd tomcat。每次遇到相同的下标(第一个字段)就会获取上次这个下标对应的值与当前字段并作为此下标的新值。

4、将第一列合并到一行

# cat file
1 2 3
4 5 6
7 8 9

# awk ‘{for(i=1;i<=NF;i++)a[i]=a[i]$i" "}END{for(vin a)print a[v]}’ file
1 4 7
2 5 8
3 6 9

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

解读

for循环是遍历每行的字段,NF等于3,循环3次。

读取第一行时:
第一个字段:a[1]=a[1]1" " 值a[1]还未定义数组,下标也获取不到对应的值,所以为空,因此a[1]=1
第二个字段:a[2]=a[2]2" " 值a[2]数组a已经定义,但没有2这个下标,也获取不到对应的值,为空,因此a[2]=2
第三个字段:a[3]=a[3]3" " 值a[2]与上面一样,为空,a[3]=3

读取第二行时:
第一个字段:a[1]=a[1]4" " 值a[2]获取数组a的2为下标对应的值,上面已经有这个下标了,对应的值是1,因此a[1]=1 4
第二个字段:a[2]=a[2]5" " 同上,a[2]=2 5
第三个字段:a[3]=a[3]6" " 同上,a[2]=3 6
读取第三行时处理方式同上,数组最后还是三个下标,分别是1=1 4 72=2 5 83=36 9。最后for循环输出所有下标值。

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

5、字符串拆分

字符串拆分:
方法1:

# echo "hello" |awk -F '''{for(i=1;i<=NF;i++)print $i}'
h
e
l
l
o

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

方法2:

# echo "hello" |awk '{split($0,a,"''");for(v in a)print a[v]}'
l
o
h
e
l

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

6、统计出现的次数

统计字符串中每个字母出现的次数:

# echo "a.b.c,c.d.e" |awk -F'[.,]' '{for(i=1;i<=NF;i++)a[$i]++}END{for(v in a)print v,a[v]}'
a 1
b 1
c 2
d 1
e 1

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

7、费用统计

得出每个员工出差总费用及次数:

# cat a
zhangsan 8000 1
zhangsan 5000 1
lisi 1000 1
lisi 2000 1
wangwu 1500 1
zhaoliu 6000 1
zhaoliu 2000 1
zhaoliu 3000 1

# awk ‘{name[$1]++;cost[$1]+=$2;number[$1]+=$3}END{for(v in name)print v,cost[v],number[v]}’ a
zhangsan 5000 1
lisi 3000 2
wangwu 1500 1
zhaoliu 11000 3

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

8、获取某列数字最大数

# cat a
a b 1
c d 2
e f 3
g h 3
i j 2

获取第三字段最大值:
# awk ‘BEGIN{max=0}{if($3>max)max=$3}END{print max}’ a
3

打印第三字段最大行:
# awk 'BEGIN{max=0}{a[$0]=$3;if($3>max)max=$3}END{for(v in a)if(a[v]==max)print v}'a
g h 3
e f 3

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

9、去除文本第一行和最后一行

# seq 5 |awk 'NR>2{print s}{s=$0}'
2
3
4

 
 
  • 1
  • 2
  • 3
  • 4

解读

读取第一行,NR=1,不执行print s,s=1
读取第二行,NR=2,不执行print s,s=2 (大于为真)
读取第三行,NR=3,执行print s,此时s是上一次p赋值内容2,s=3
最后一行,执行print s,打印倒数第二行,s=最后一行。

 
 
  • 1
  • 2
  • 3
  • 4

10、获取Nginx upstream块内后端IP和端口

# cat php.conf
upstream example-servers1 {
   server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;
}
upstream example-servers2 {
   server 127.0.0.1:80 weight=1 max_fails=2fail_timeout=30s;
   server 127.0.0.1:82 backup;
}

 
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

方法1:

# awk '/example-servers1/,/}/{if(NR>2){print s}{s=$2}}' php.conf
127.0.0.1:80

 
 
  • 1
  • 2

方法2:

# awk '/example-servers1/,/}/{if(i>1)print s;s=$2;i++}' php.conf
127.0.0.1:80

 
 
  • 1
  • 2

方法3:

# awk '/example-servers1/,/}/{if(i>1){print s}{s=$2;i++}}' php.conf
127.0.0.1:80

 
 
  • 1
  • 2

解读

读取第一行,i初始值为0,0>1为假,不执行print s,x=example-servers1,i=1
读取第二行,i=1,1>1为假,不执行prints,s=127.0.0.1:80,i=2
读取第三行,i=2,2>1为真,执行prints,此时s是上一次s赋值内容127.0.0.1:80,i=3
最后一行,执行print s,打印倒数第二行,s=最后一行。
这种方式与上面一样,只是用i++作为计数器。

11、统计13:30到14:30所有访问apache服务器的请求有多少个

#awk -F "[ /:]" '$7":"$8>="13:30" && $7":"$8<="14:30"' /var/log/httpd/access_log |wc -l

 
 
  • 1

12、统计13:30到14:30所有访问apache服务器的远程IP地址是什么

#awk -F "[ /:]" '$7":"$8>="13:30" && $7":"$8<="14:30"print $1{}' /var/log/httpd/access_log 

 
 
  • 1

13、统计每个远程IP访问了本机apache几次?

#awk '{ip[$1]++}END{for (i in ip){print ip[i],i}} /var/log/httpd/access_log'

 
 
  • 1

14、统计当前Linux系统中可以登录计算机的账户有多少个

awk -f: '/bash$/{x++}end{print x}' /etc/passwd

 
 
  • 1

15、



 
 
  • 1

16、统计



 
 
  • 1

17、



 
 
  • 1

参考链接 :
作者:Panda
原文:https://segmentfault.com/a/1190000009745139
https://mp.weixin.qq.com/s/JdPqrU6Jgc4AiCg9KTbUEw

10 个Linux Awk文本处理经典案例 : https://mp.weixin.qq.com/s/7WitlmR-KJyResDmMsNKOQ

                                </div><div data-report-view="{&quot;mod&quot;:&quot;1585297308_001&quot;,&quot;dest&quot;:&quot;https://blog.csdn.net/qq_40907977/article/details/107559745&quot;,&quot;extend1&quot;:&quot;pc&quot;,&quot;ab&quot;:&quot;new&quot;}"><div></div></div>
            <link href="https://csdnimg.cn/release/phoenix/mdeditor/markdown_views-e0530931f4.css" rel="stylesheet">
                            </div>
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值