对数据中重复行进行去重
$第一步:sort 进行排序
第二部: uniq 去除重复(必须先进行排序,否则uniq无法去除重复 uniq 是比较前后两行的数据,如果相邻两行数据不同则认为数据不同)
Shell代码
sort CUST.TXT | uniq > Target.TXT
2.
对数据中重复的列去重
awk对文件某一列去重,保留最后一行
awk命令:awk ‘{a[$1]=$0}END{for(i in a)print a[i]}’ a.txt > b.txt
对数据中重复行进行去重
$第一步:sort 进行排序
第二部: uniq 去除重复(必须先进行排序,否则uniq无法去除重复 uniq 是比较前后两行的数据,如果相邻两行数据不同则认为数据不同)
Shell代码
sort CUST.TXT | uniq > Target.TXT
2.
对数据中重复的列去重
awk对文件某一列去重,保留最后一行
awk命令:awk ‘{a[$1]=$0}END{for(i in a)print a[i]}’ a.txt > b.txt