cat与cut结合获取某些批量文件的重复项 Linux中某个.dat或者.txt文件中有重复行。 我们可以使用sort+uniq方法去重 比如:sort a.dat | uniq > b.txt Linux中.dat或者.txt文件中只需要根据一行的前几个字符去重 我们可以用cat结合cut的方法来做,并且输出重复的数据 比如:cat a.dat |cut -c-19|uniq -d 其中 -c-19是要切的长度 -d是输出重复的数据 以上,有用记得点个赞!