日志文件处理(linux awk sort uniq grep)

很多时候,我们需要统计日志,可能会很麻烦,这里提供下简单的思路
日志文件如下,包含两列第一列md5,第二列文件名
在这里插入图片描述
我们需要统计md5有没有重复的,分为这么几部

  1. 取出md5这一列
  2. 对md5这一列进行排序
  3. 统计相同的个数
    命令如下:
cat md5.txt |awk '{print $1}'|sort|uniq -c

命令解析:
cat md5.txt 即读取整个文件
awk ‘{print $1}’ 即打印第一列,默认分隔符为空格
sort 即排序
uniq 即取唯一
-c 即统计个数


后续:
awk如何指定分隔符,如分隔符为abc

awk -F"abc" '{print $1}'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值