shell 常见操作 之shell工具

shell工具

1 cut

​ cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行

剪切字节、字符和字段并将这些字节、字符和字段输出。

1)基本用法

​ cut [选项参数] filename

​ 说明:默认分隔符是制表符

2)选项参数说明

选项参数功能
-f列号,提取第几列
-d分隔符,按照指定分隔符分割列,默认是制表符“\t”
-c指定具体的字符

3)案例实操

(1)数据准备

[xiao@hadoop105 datas]$ touch cut.txt
[xiao@hadoop105 datas]$ vim cut.txt
dong shen
guan zhen
wo  wo
lai  lai
le  le

(2)切割cut.txt第一列

[xiao@hadoop105 datas]$ cut -d " " -f 1 cut.txt 
dong
guan
wo
lai
le

(3)切割cut.txt第二、三列

[xiao@hadoop105 datas]$ cut -d " " -f 2,3 cut.txt 
shen
zhen
 wo
 lai
 le

(4)在cut.txt文件中切割出guan

[xiao@hadoop105 datas]$ cat cut.txt | grep "guan" 
guan zhen
[xiao@hadoop105 datas]$ cat cut.txt | grep "guan" | cut -d " " -f 1
guan

(5)选取系统PATH变量值,第2个“:”开始后的所有路径:

[xiao@hadoop105 datas]$ echo $PATH
/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/xiao/.local/bin:/home/xiao/bin
[xiao@hadoop105 datas]$ echo $PATH | cut -d ":" -f 3-
/usr/local/sbin:/usr/sbin:/home/xiao/.local/bin:/home/xiao/bin

(6)切割ifconfig 后打印的IP地址

[xiao@hadoop105 datas]$ ifconfig ens33 | grep netmask | cut -d "i" -f 2 | cut -d " " -f 2
192.168.6.105
2 awk

​ 一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开

的部分再进行分析处理。

1)基本用法

awk [选项参数] ‘/pattern1/{action1} /pattern2/{action2}…’ filename

pattern:表示awk在数据中查找的内容,就是匹配模式

action:在找到匹配内容时所执行的一系列命令

2)选项参数说明

选项参数功能
-F指定输入文件折分隔符
-v赋值一个用户定义变量

3)案例实操

(1)数据准备

[xiao@hadoop105 datas]$ sudo cp /etc/passwd ./

(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列。

[xiao@hadoop105 datas]$ awk -F : '/^root/{print $7}' passwd
/bin/bash

(3)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以

“,”号分割。

[xiao@hadoop105 datas]$ awk -F : '/^root/{print $1","$7}' passwd
root,/bin/bash

注意:只有匹配了pattern的行才会执行action

(4)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名

user,shell在最后一行添加"dahaige,/bin/zuishuai"。

[xiao@hadoop105 datas]$ awk -F : 'BEGIN{print "user, shell"} {print $1","$7} END{print "dahaige,/bin/zuishuai"}' passwd
user, shell
root,/bin/bash
bin,/sbin/nologin
... ...
xiao,/bin/bash
dahaige,/bin/zuishuai

注意:BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。

(5)将passwd文件中的用户id增加数值10并输出

[xiao@hadoop105 datas]$ awk -v i=10 -F : '{print $3+i}' passwd
10
11
12
13
14
15
16

4)awk 的内置变量

变量说明
FILENAME文件名
NR已读的记录数(行号)
NF浏览记录的域的个数(切割后,列的个数)

5)案例实操

(1)统计passwd文件名,每行的行号,每行的列数

[xiao@hadoop105 datas]$ awk -F : '{print "filename:" FILENAME ",linenum:" NR ",col:" NF}' passwd
filename:passwd,linenum:1,col:7
filename:passwd,linenum:2,col:7
filename:passwd,linenum:3,col:7
filename:passwd,linenum:4,col:7
filename:passwd,linenum:5,col:7

(2)查询ifconfig命令输出结果中的空行所在的行号

[xiao@hadoop105 datas]$ ifconfig | awk '/^$/{print NR}'
9
18
26

(3)切割IP

[xiao@hadoop105 datas]$ ifconfig ens33 | grep netmask | awk -F "inet" '{print $2}' | awk -F " " '{print $1}'
192.168.6.105
3 sort

sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。

1)基本语法

Sort (选项) (参数)

选项说明
-n依照数值的大小排序
-r以相反的顺序来排序
-t设置排序时所用的分隔字符
-k指定需要排序的列

参数:指定待排序的文件列表

2)案例实操

(1)数据准备

[xiao@hadoop105 datas]$ touch sort.txt
[xiao@hadoop105 datas]$ vim sort.txt
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6

(2)按照“:”分割后的第三列倒序排序。

[xiao@hadoop105 datas]$ sort -t : -nrk 3 sort.txt 
bb:40:5.4
bd:20:4.2
cls:10:3.5
xz:50:2.3
ss:30:1.6
4 wc

wc命令用来统计文件信息。利用wc指令我们可以计算文件的行数,字节数、字符数等。

1)基本语法

wc [选项参数] filename

选项参数功能
-l统计文件行数
-w统计文件的单词数
-m统计文件的字符数
-c统计文件的字节数

2)案例实操

统计 /etc/profile 文件的行数、单词数、字节数!

[xiao@hadoop105 datas]$ wc -l /etc/profile
76 /etc/profile
[xiao@hadoop105 datas]$ wc -w /etc/profile
253 /etc/profile
[xiao@hadoop105 datas]$ wc -m /etc/profile
1819 /etc/profile
[xiao@hadoop105 datas]$ wc -c /etc/profile
1819 /etc/profile
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值