sed可以有效的修改文件内容,grep可以筛选信息,而用awk统计文件内容信息真的很方便
1,直接上例子awk 'BEGIN{count=0; print "start count is " count} !/nologin/ {count++; print $0, NR} END{print "the count is " count}' /etc/passwd
2,在处理输入文件之前执行BEGIN中的语句,处理完之后执行END中的语句,很好理解哈
3,!/nologin/ 的意思是不匹配nologin,匹配当然是/nologin/喽
4,然后开始统计未匹配nologin的行,并打印出整行,和行号 print $0,NR。测试一下,大括号中最后的分号可加可不加(也许会有不同,结果来看一样),print内容之间加逗号会在打印结果中用一个空格分隔,如果不加逗号可以这样“ ”
5,还可以加上一些控制语句如,if(length($0)>35) {count++; print $0, NR}
6,可以用-F “:” 来指定分隔符awk -F ':'
今天又学到了一个好用的命令
awk '{a[$9]++} END{for(i in a) if(a[i]>2000) print i, a[i]}' /data/logs/nginx/access.log
1,这个命令的作用是打印出日志中第九个域(访问iP)数量超过2000的ip和访问次数。ps:很有用啊!
2,核心功能是a[$9]++,没遇到一个ip就会在原来的计数基础上加一,最后保存到一个类似于map的a中,实现了统计 的功能。