由于ftp日志取数据出现重取导致日志计算数据量偏大

原始数据:文件a 中210_f531_UUCELLMR_201702202350_00.CSV出现重取
这里写图片描述

通过uniq -c查到重取的文件

 cat a |awk '{print $1}'|uniq -c |grep -v '      1'

前部数字大于1的为重取,
这里写图片描述

获取重取得文件最后一次的数据

由于每行数据为文件名 大小
我们的数据已经排序,所以我们通过uniq -c 获取的文件名,来获取每个文件的记录最后一个

for line in `cat a |awk '{print $1}'|uniq -c |awk '{print $2}'`
do
cat a |grep $line |tail -n 1 >> b
done

我们对比a,b两个文件,确实过滤了

[root@chb ~]# cat a |awk '{print $1}'|wc -l
2300
[root@chb ~]# cat a |awk '{print $1}'|sort |uniq|wc -l
1805
[root@chbchb~]# cat b |awk '{print $1}'|wc -l 
1805
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值