linux split join paste uniq tee sort 工作中文本操作常用方法

本文主要是linux文本常见命令,主要内容如下:

  • split命令将文件按指定行数/size分成小文件,grep -c / awk/wc -l file*统计每个文件行数

  • join/paste将多个文件按照列合并

  • tee >>流重定向到文件, /dev/null使用

  • sort对文件按照指定列排序, uniq按照列获取唯一列大小,每列计数等

  • cat/tac文件查看,内容重定向到文件

  • head /tail /less常用功能


split命令将文件按指定行数/size分成小文件,grep -c / awk/wc -l file*统计每个文件行数

工作中有时候需要将一个很大的文件分成一个个小的文件(日志文件很大,直接统计太耗性能,有时可以考虑将其分为小文件在处理),比如一个文件有100K行,我们一个把他分成100个每个只含有1K行的小文件,使用(google -> linux split file into small files by line num)

split -l 1000 large.txt

例如下面我们将一个文件分成小文件每个10行

这里写图片描述

grep -c “” 统计每个文件的大小

root@admin:~/real_dir#  for f in xa*;do echo "$f";grep -c "" $f;done
xaa
10
xab
10
xac
10
xad
2

当然也可以使用awk将文件名按照参数传递统计(google-> awk count file line/ linux pass parameter to awk ):

这里写图片描述

当然统计行数首先想到 wc -l (也可统计多个文件,一般统计一个)

# for statistic every file line, just 
wc -l xa*
# for example(google -> linux count multiple files line num)
root@ubuntu:/data/services# wc -l out*
  10 out1.txt
  10 out2.txt
  20 total

split 也可以分割 .zip 文件,默认的文件名是 x* ,默认1000行。
当然我们也可以添加前缀例如:

$ split -a5 split.zip
$ ls
split.zip  xaaaac  xaaaaf  xaaaai  xaaaal  ...
xaaaaa     xaaaad  xaaaag  

# 数字前缀
$ split -d split.zip
$ ls
split.zip  x01  x03  x05  x07  x09  ...
x00        x02  x04  x06  x08  

join/paste将多个文件按照列合并


paste将文件按照列合并(google->linux merge files by column),例如:

#文件file1, file2内容如下
cat file1
file1 line1
file1 line2

cat file2
file2 line1
file2 line2

# 下面paste将文件file1 2 按照列合并,然后awk输出最后重定向到file3中
paste file{1,2} | awk '{print $1, $2, $3, $4}' > file3
#输出file3
cat file3
file1 line1 file2 line1
file1 line2 file2 line2

# awk 输出所有文件内容
root@ubuntu:/data/services# awk '1' file*
file1 line1
file1 line2
file2 line1
file2 line2
file1 line1 file2 line1
file1 line2 file2 line2

join将文件按照列合并,

#文件file1, file2内容如下
cat file1
file1 line1
file1 line2

cat file2
file2 line1
file2 line2

#使用join的时候默认需要第一列相等,由此我们考虑使用cat -n这个每行内容加上了行数,即可,使用 `<` 将输出作为stdin标准输入流

root@ubuntu:/data/services# join <(cat -n file1) <(cat -n file2)
1 file1 line1 file2 line1
2 file1 line2 file2 line2

join 按照指定的列合并:

cat wine.txt
Red Beaunes France
White Reisling Germany
Red Riocha Spain

cat reviews.txt
Beaunes Great!
Reisling Terrible!
Riocha Meh

#我们需要把 wine.txt按照第二列,reviews.txt按照第一列:

join -1 2 -2 1 wine.txt reviews.txt
Beaunes Red France Great!
Reisling White Germany Terrible!
Riocha Red Spain Meh

join在合并前需要我们对指定的列是排好序的,如果指定列没有排序则会报错:

cat wine.txt
White Reisling Germany
Red Riocha Spain
Red Beaunes France

cat reviews.txt
Riocha Meh
Beaunes Great!
Reisling Terrible!

join -1 2 -2 1 wine.txt reviews.txt
# 报错如下:
#join: wine.txt:3: is not sorted: Red Beaunes France
#join: reviews.txt:2: is not sorted: Beaunes Great!

# 使用sort按照列排序,然后重定向即可
join -1 2 -2 1 <(sort -k 2 wine.txt) <(sort reviews.txt)
Beaunes Red France Great!
Reisling White Germany Terrible!
Riocha Red Spain Meh

join默认是按照空格作为分隔符,当然我们也可以指定:

cat wine.txt
Red,Beaunes,France
White Reisling,Germany
Red,Riocha,Spain

cat reviews.txt
Beaunes,Great!
Reisling,Terrible!
Riocha,Meh

# 指定即可
join -t,  wine.txt reviews.txt 

join -o指定列的顺序:

cat names.csv
1,John Smith,London
2,Arthur Dent, Newcastle
3,Sophie Smith,London

cat transactions.csv
£1234,Deposit,John Smith
£4534,Withdrawal,Arthur Dent
£4675,Deposit,Sophie Smith

join -1 2 -2 3 -t , names.csv transactions.csv
John Smith,1,London,£1234,Deposit
Arthur Dent,2, Newcastle,£4534,Withdrawal
Sophie Smith,3,London,£4675,Deposit

join -1 2 -2 3 -t , -o 1.1,1.2,1.3,2.2,2.1 names.csv transactions.csv
1,John Smith,London,Deposit,£1234
2,Arthur Dent, Newcastle,Withdrawal,£4534
3,Sophie Smith,London,Deposit,£4675

tee >>流重定向到文件, /dev/null使用


比如我们要将标准输出(stdout)标准错误输出(stderr)输出到终端以及文件中可以使用

command |& tee file.log

追加到日志文件

command |& tee -a output.txt
或者是
./ex1 > outfile 2>&1 或者 ./ex1 &> outfile

下面是caffe图片训练时候的结果输出到日志文件(图片来自个人笔记):

这里写图片描述


sort对文件按照指定列排序, uniq按照列获取唯一列大小,每列计数等


  • uniq对文件的指定的列取unique的时候需要指定列已经是排好序,例如:
$ cat test
aa
aa
bb
bb

$ uniq test.txt
aa
bb

# 如果不排序的话文件内容如下,使用 uniq test.txt输出结果不变
aa
bb
aa
bb
  • 使用uniq -c 统计每个key对应的行数:
$ uniq -c test.txt
      2 aa
      2 bb

这对于日志统计还是挺有作用的,例如我们要统计日志中:error_info, 以及 warn_info行数(已经排好序)
可以 uniq -c log.txt | grep -e 'error_info' -e 'warn_info'

  • 输出重复的列:uniq -d filename

  • 只按照指定字符统计例如按照前10个字符作为keyuniq -c -w 10 filename

  • sort排序 -f:忽略大小写,-b:忽略前面的空格,-n使用纯数字排序 -t: 分隔符默认的是 Tab ,-k:区间 -r反向排序

这里写图片描述

  • 指定uniq
cat awk_test.txt 
10,15-10-2014,abc
20,12-10-2014,bcd
10,09-10-2014,def

sort -u -t, -k 1 awk_test.txt 
10,15-10-2014,abc
20,12-10-2014,bcd

我们也可以对文件大小排序显示(-n按照数字排序而不是字符串):
ll | sort -k 5 -n

也可以(-h 按照文件大小):

$ cat test
2M
1G
1K

$ sort -h test
1K
2M
1G

下面是深度学习train.txt(每个类别的样本数量,类型统计,并排序)
其中0,1….代表类别0, 1…..后面的代表数量
这里写图片描述

cat/tac文件查看,内容重定向到文件


cat的使用一般就是 :

  • cat file (输出file所有内容)
  • cat file > output.txt(重定向写到文件)
  • cat -n file 输出行号

tac 反向输出文件

head /tail /less常用功能


head
* head -2 file输出前两行(head file 默认的前十行)
* head -n 2 file(输出前两行带行号)

tail 一般就是
* tail -f log.txt动态查看日志
* tail file(默认查看后十行)

上面很多命令是实践中常用的总结,部分来源与google搜索,以及
http://www.thegeekstuff.com/category/sed/ 这位大神的bolg
google -> linux command thegeekstuff

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值