awk案例练习

一、awk练习

1.1筛选ip地址

ifconfig命令查看IP
利用awk进行筛选

ifconfig  | awk 'BEGIN{RS=""}NR=2{print $6}'

RS指定输入记录换行符,当RS=""时,即输入换行符为\n,它指示AWK将连续的非空行组合成一个记录,这时就分为了三行,每一段一行,NR==2,代表第二行也就是第二段,$6代表第二行的以空格为间隔的第6个字段,也就是ip地址

1.2字段去重

先随便创建个test练习,将下面内容写进去

2019-01-13_12:00_index?uid=123
2019-01-13_13:00_index?uid=123
2019-01-13_14:00_index?uid=333
2019-01-13_15:00_index?uid=9710
2019-01-14_12:00_index?uid=123
2019-01-14_13:00_index?uid=123
2019-01-15_14:00_index?uid=333
2019-01-16_15:00_index?uid=9710

利用awk命令进行去重

awk -F"?" '{arr[$2]++;if(arr[$2]=1){print $0}}'  test  

-F"?"代表以?为输入字段分隔符,arr[$2]即arr[uid=xxx],

当字段第一次出现时,arr[$2]为0,++后为1,触发if条件,输出$0;

当字段第二次及n次出现时,arr[$2]已经等于1了,++后为2,无法触发if条件,无法输出

这样就达到了去重的效果

1.3次数统计

依旧随意创建文本test

status
status
mountd
mountd
mountd
mountd
mountd
mountd
k8s
k8s
k8s
nfs
k8s
nfs
nfs_acl
nfs
nginx
nginx
nginx
docker
docker
docker
nfs_acl
nlockmgr
nlockmgr
nlockmgr
nlockmgr
 
status
status
mountd
mountd
mountd
mountd
mountd
mountd
k8s
k8s
k8s
nfs
k8s
nfs
nfs_acl
nfs
nginx
nginx
nginx
docker
docker
docker
nfs_acl
nlockmgr
nlockmgr
nlockmgr
nlockmgr
nlockmgrr
nlockmgstatus

利用cat 与awk 统计出现的次数

当字段第一次出现时,arr[$0]=0,++后为1,当出现第二次时,arr[$0]=1,++后为2,所以当第n次出现时,arr[$0]=n

END表示最后的操作,for(i in arr){print arr[i], i}表示打印键值和键名,即第一行的4 nfs

cat test | awk '{arr[$0]++}END{for(i in arr){print arr[i],i}}'

1.4统计TCP连接状态

先用netstat -lntp查看

再用以下命令统计

netstat -lntp | awk 'NR>2{arr[$6]++}END{for(i in arr){print arr[i],i}}'

NR>2代表处理大于第二行的记录,arr[$6]++代表统计tcp连接状态的次数,最后打印出来

1.5处理字段缺失的数据

在test中随意输入一些数据

awk '{print $6}' test

这里如果想打印电话,直接打印 $ 6是不行的,因为有些记录是没有$6的,所以可以通过if条件,判断如果$5是以0-9开头的,那就打印$5,否则就打印 $

 awk '{if($5 ~ /^[0-9]/){print $5}else{print $6}}' test

1.6筛选给定时间范围内的日志

随便找的之前的防火墙日志
是"-F-"以短横线为字段分隔符,使用if判断来输出一月份的日志

 awk -F- '{if($2<=1){print $0}}' test
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 1. 使用awk命令,将一个文件中的第一列和第二列相加,并输出结果。 2. 使用sed命令,将一个文件中的所有空行删除,并输出结果。 3. 使用grep命令,查找一个文件中包含特定字符串的行,并输出结果。 4. 使用awk命令,将一个文件中的所有行按照第二列进行排序,并输出结果。 5. 使用sed命令,将一个文件中的所有单词转换为大写,并输出结果。 6. 使用grep命令,查找一个文件中不包含特定字符串的行,并输出结果。 7. 使用awk命令,将一个文件中的所有行按照第一列进行分组,并输出结果。 8. 使用sed命令,将一个文件中的所有行反转,并输出结果。 9. 使用grep命令,查找一个文件中包含特定字符串的行数,并输出结果。 10. 使用awk命令,将一个文件中的所有行按照第三列进行筛选,并输出结果。 ### 回答2: awk、sed和grep是Linux系统中常见的文本处理工具,它们可以对文本进行搜索、替换、过滤、格式化等操作。以下是一些常见的练习题,可以帮助读者加深对这些工具的理解和掌握它们的使用技巧。 1. 使用awk命令统计日志文件中每个IP的访问次数。 awk '{a[$1]++} END {for(i in a) print i, a[i]}' logfile 其中,a[$1]++用于统计IP的访问次数,END子句用于在处理完整个文件后输出结果。 2. 使用sed命令批量重命名文件夹中所有的.jpg文件为.png。 sed -i 's/\.jpg/\.png/g' $(find /path/to/folder -type f -name '*.jpg') 其中,-i选项表示直接修改原文件,使用find命令来查找所有.jpg文件,并将其替换为.png。 3. 使用grep命令查找一个目录下所有包含“Linux”关键字的文件,并输出匹配结果。 grep -r "Linux" /path/to/directory 其中,-r选项表示递归查找所有文件,如果找到匹配项,则会输出所在的文件名和匹配的行。 4. 使用awk命令从一组数字中找出最大值和最小值,并计算它们的平均数。 echo "1 2 3 4 5" | awk 'BEGIN {max=0;min=999999} {for(i=1;i<=NF;i++) if($i>max) max=$i;else if($i<min) min=$i;total+=$i} END {print "Max:",max,"Min:",min,"Avg:",total/NF}' 其中,BEGIN子句用于初始化max和min变量,NF表示输入行的字段数量,END子句用于计算平均数。 以上是关于awk、sed和grep的基础练习题,掌握了这些基本操作后,读者可以尝试更复杂的文本处理任务,如去重、排序、计数等。同时,多查阅相关文档和资料,不断练习,可以更好地掌握这些工具。 ### 回答3: awk、sed、grep三者是Linux中常用的文本处理命令,它们都可以用来处理大量的文本信息。下面是一些实践练习。 1. 使用grep 给定一个文件file.txt,其中的每行都是一个字符串,找出其中包含字符串“hello”的所有行并输出到一个新的文件new.txt。 grep "hello" file.txt > new.txt 2. 使用awk 给定一个包含三列的文件file.txt(英语、数学和科学的成绩),找出其中科学成绩大于80分的所有学生。 awk '$3>80{print $0}' file.txt 3. 使用sed 给定一个文件file.txt,其中有若干行英文句子,将其中所有的小写字母转换为大写字母。 sed 's/[a-z]/\U&/g' file.txt 4. 使用grep和awk 给定一个包含多个文件的目录dir,找出其中含有文件名“error.log”的文件,并统计各个文件中“error”单词出现的总次数。 grep -l "error.log" dir/* | xargs awk '{count +=gsub(/error/,"&")}END{print count}' 以上是一些常用的练习题,可以帮助大家熟悉和掌握这些常用命令的使用方法。需要注意的是,在实践过程中,应该多加尝试,有问题及时查阅相关文档或寻求帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值