shell工具
1 cut
cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行
剪切字节、字符和字段并将这些字节、字符和字段输出。
1)基本用法
cut [选项参数] filename
说明:默认分隔符是制表符
2)选项参数说明
选项参数 | 功能 |
---|---|
-f | 列号,提取第几列 |
-d | 分隔符,按照指定分隔符分割列,默认是制表符“\t” |
-c | 指定具体的字符 |
3)案例实操
(1)数据准备
[xiao@hadoop105 datas]$ touch cut.txt
[xiao@hadoop105 datas]$ vim cut.txt
dong shen
guan zhen
wo wo
lai lai
le le
(2)切割cut.txt第一列
[xiao@hadoop105 datas]$ cut -d " " -f 1 cut.txt
dong
guan
wo
lai
le
(3)切割cut.txt第二、三列
[xiao@hadoop105 datas]$ cut -d " " -f 2,3 cut.txt
shen
zhen
wo
lai
le
(4)在cut.txt文件中切割出guan
[xiao@hadoop105 datas]$ cat cut.txt | grep "guan"
guan zhen
[xiao@hadoop105 datas]$ cat cut.txt | grep "guan" | cut -d " " -f 1
guan
(5)选取系统PATH变量值,第2个“:”开始后的所有路径:
[xiao@hadoop105 datas]$ echo $PATH
/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/xiao/.local/bin:/home/xiao/bin
[xiao@hadoop105 datas]$ echo $PATH | cut -d ":" -f 3-
/usr/local/sbin:/usr/sbin:/home/xiao/.local/bin:/home/xiao/bin
(6)切割ifconfig 后打印的IP地址
[xiao@hadoop105 datas]$ ifconfig ens33 | grep netmask | cut -d "i" -f 2 | cut -d " " -f 2
192.168.6.105
2 awk
一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开
的部分再进行分析处理。
1)基本用法
awk [选项参数] ‘/pattern1/{action1} /pattern2/{action2}…’ filename
pattern:表示awk在数据中查找的内容,就是匹配模式
action:在找到匹配内容时所执行的一系列命令
2)选项参数说明
选项参数 | 功能 |
---|---|
-F | 指定输入文件折分隔符 |
-v | 赋值一个用户定义变量 |
3)案例实操
(1)数据准备
[xiao@hadoop105 datas]$ sudo cp /etc/passwd ./
(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列。
[xiao@hadoop105 datas]$ awk -F : '/^root/{print $7}' passwd
/bin/bash
(3)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以
“,”号分割。
[xiao@hadoop105 datas]$ awk -F : '/^root/{print $1","$7}' passwd
root,/bin/bash
注意:只有匹配了pattern的行才会执行action
(4)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名
user,shell在最后一行添加"dahaige,/bin/zuishuai"。
[xiao@hadoop105 datas]$ awk -F : 'BEGIN{print "user, shell"} {print $1","$7} END{print "dahaige,/bin/zuishuai"}' passwd
user, shell
root,/bin/bash
bin,/sbin/nologin
... ...
xiao,/bin/bash
dahaige,/bin/zuishuai
注意:BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。
(5)将passwd文件中的用户id增加数值10并输出
[xiao@hadoop105 datas]$ awk -v i=10 -F : '{print $3+i}' passwd
10
11
12
13
14
15
16
4)awk 的内置变量
变量 | 说明 |
---|---|
FILENAME | 文件名 |
NR | 已读的记录数(行号) |
NF | 浏览记录的域的个数(切割后,列的个数) |
5)案例实操
(1)统计passwd文件名,每行的行号,每行的列数
[xiao@hadoop105 datas]$ awk -F : '{print "filename:" FILENAME ",linenum:" NR ",col:" NF}' passwd
filename:passwd,linenum:1,col:7
filename:passwd,linenum:2,col:7
filename:passwd,linenum:3,col:7
filename:passwd,linenum:4,col:7
filename:passwd,linenum:5,col:7
(2)查询ifconfig命令输出结果中的空行所在的行号
[xiao@hadoop105 datas]$ ifconfig | awk '/^$/{print NR}'
9
18
26
(3)切割IP
[xiao@hadoop105 datas]$ ifconfig ens33 | grep netmask | awk -F "inet" '{print $2}' | awk -F " " '{print $1}'
192.168.6.105
3 sort
sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。
1)基本语法
Sort (选项) (参数)
选项 | 说明 |
---|---|
-n | 依照数值的大小排序 |
-r | 以相反的顺序来排序 |
-t | 设置排序时所用的分隔字符 |
-k | 指定需要排序的列 |
参数:指定待排序的文件列表
2)案例实操
(1)数据准备
[xiao@hadoop105 datas]$ touch sort.txt
[xiao@hadoop105 datas]$ vim sort.txt
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6
(2)按照“:”分割后的第三列倒序排序。
[xiao@hadoop105 datas]$ sort -t : -nrk 3 sort.txt
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6
4 wc
wc命令用来统计文件信息。利用wc指令我们可以计算文件的行数,字节数、字符数等。
1)基本语法
wc [选项参数] filename
选项参数 | 功能 |
---|---|
-l | 统计文件行数 |
-w | 统计文件的单词数 |
-m | 统计文件的字符数 |
-c | 统计文件的字节数 |
2)案例实操
统计 /etc/profile 文件的行数、单词数、字节数!
[xiao@hadoop105 datas]$ wc -l /etc/profile
76 /etc/profile
[xiao@hadoop105 datas]$ wc -w /etc/profile
253 /etc/profile
[xiao@hadoop105 datas]$ wc -m /etc/profile
1819 /etc/profile
[xiao@hadoop105 datas]$ wc -c /etc/profile
1819 /etc/profile