单纯uniq是不行的,注意,用sort+awk命令。
单纯awk同样不行, ? 1 sort -n test.txt | uniq 第二, sort -n $file | awk '{if($0!=line)print; line=$0}' 第三, Linux删除重复行的代码 文本处理时, sort -n $file | sed '$!N; /^.n1$/!P; D' Shell脚本 ? 1 2 3 4 5 6 # !/bin/sh file='test.txt' sort -n $file | uniq sort -n $file | awk '{if($0!=line)print; line=$0}' sort -n $file | sed '$!N; /^(.*)n1$/!P; D' 测试文件: yanggang@barry$ cat test.txt aaa bbbbb ccccc 123 aaaaa 123 bbb aaa 执行结果: yanggang@barry$ ./diffRow.sh aaa aaaaa bbb bbbbb ccccc 123 服务器教程平板电脑教程视频播放教程 ,经常要删除重复行。
同样需要sort命令先排序,注意。
原因同上,用sort+uniq。
用sort+sed命令。
下面是三种方法 第一,。