正则表达式和文本处理器

目录

一、正则表达式

1.正则表达式的功能

2.基础正则表达式:BRE

2.1案列

2.2特殊字符

2.3定位符

2.4非打印字符

3.扩展正则表达式: ERE

3.1案列

4.元字符操作的案列

(1)查找特定字符

(2)利用中括号“[ ]”来查找集合字符

(3)查找行首“^”与行尾字符“$”

(4)查找任意一个字符“.”与重复字符“*”

(5)查找连续字符范围“{}”

二、文本处理工具

1.cut:列截取工具

2.sort:行排序

3.uniq:去重

4.tr:字符转换

三、文本处理器

1.sed 工具

1.1sed 命令常见用法

1.2用法示例

2.awk

1.概述

2.工作原理

3.工作流程

3.1 运行模式

3.2 执行流程

4.基本语法

4.1命令格式

5.实战案列

5.1 内建变量

5.2 内置变量

5.3 BEGIN END 运算

5.4关于数值与字符串的比较

5.5逻辑运算 && ||

5.6 BEGIN END 流程

5.7 AWK 数组

5.8 awk 循环

6、总结


一、正则表达式

正则表达式不只有一种,而且 LINUX 中不同的程序可能会使用不同的正则表达式。

工具:grep sed awk egrep

1.正则表达式的功能

正则表达式---通常用于判断语句中,用来检查某一字符串是否满足某一格式

正则表达式是由普通字符与元字符组成

普通字符包括大小写字母、数字、标点符号及一些其他符号

元字符是指在正则表达式中具有特殊意义的专用字符,可以用来规定其前导字符(即位于元字符前面的字符)在目标对象中的出现模式

LINUX 中常用的有两种正则表达式引擎

2.基础正则表达式:BRE

基础正则表达式常见元字符:(支持的工具:grep、egrep、sed、awk)

1. grep [选项]… 查找条件 目标文件

-E :开启扩展(Extend)的正则表达式

-c :计算找到 '搜寻字符串' 的次数

-i :忽略大小写的不同,所以大小写视为相同

-o :只显示被模式匹配到的字符串

-v :反向选择,亦即显示出没有 '搜寻字符串' 内容的那一行!(反向查找,输出与查找条件不相符的行)

--color=auto :可以将找到的关键词部分加上颜色的显示喔!

-n :顺便输出行号

2.1案列

grep -c root /etc/passwd        //统计root字符总行数;或cat /etc/passwd | grep root

grep  -i "the"   web.sh          //不区分大小写查找the所有的行

grep -v root /etc/passwd           //将/etc/passwd,将没有出现 root 的行取出来

cat web.sh |grep -v '^$' >test.txt  //将非空行写入到test.txt文件

ifconfig ens33 |grep -o "[0-9]\+\.[0-9]\+\.[0-9]\+\.[0-9]\+"|head -1 //过滤出IP

2.2特殊字符

\:转义符,将特殊字符进行转义,忽略其特殊意义a\.b匹配a.b,但不能匹配ajb,.被转义为特殊意义\\\\

^:匹配行首,^则是匹配字符串的开始^tux匹配以tux开头的行^^^^

$:匹配行尾,$则是匹配字符串的结尾tux$匹配以tux结尾的行$$$$

.:匹配除换行符\r\n之外的任意单个字符

[list]:匹配list列表中的一个字符 例: go[ola]d,[abc]、[a-z]、[a-z0-9]

[^list]:匹配任意不在list列表中的一个字符 例: [^a-z]、[^0-9]、[^A-Z0-9]

*:匹配前面子表达式0次或者多次 例:goo*d、go.*d

\{n\} :匹配前面的子表达式n次,例:go\{2\}d、'[O-9]\{2\}'匹配两位数字

\{n,\}:匹配前面的子表达式不少于n次,例: go\{2,\}d、' [0-9]\{2,\}'匹配两位及两位以上数宁

\{n,m\}﹔匹配前面的子表达式n到m次,例: go\{2,3\)d、'[0-9]\{2,3\}'匹配两位到三位数字

注: egrep、awk使用{n}、{n, }、{n, m}匹配时“{}"前不用加"\”

egrep -E -n 'wo{2}d' test.txt   //-E 用于显示文件中符合条件的字符

egrep -E -n 'wo{2,3}d' test.txt

2.3定位符

^ 匹配输入字符串开始的位置

$ 匹配输入字符串结尾的位置

2.4非打印字符

\n 匹配一个换行符

\r 匹配一个回车符

\t 匹配一个制表符

3.扩展正则表达式: ERE

扩展正则表达式(支持的工具:egrep、awk)

通常情况下会使用基础正则表达式就已经足够了,但有时为了简化整个指令,需要使用  范围更广的扩展正则表达式。例如,使用基础正则表达式查询除文件中空白行与行首为“#”之外的行(通常用于查看生效的配置文件),执行“grep -v‘^$’test.txt | grep -v‘^#’”即可实现。这里需要使用管道命令来搜索两次。如果使用扩展正则表达式, 可以简化为“egrep -v‘^$|^#’test.txt”,其中,单引号内的管道符号表示或者(or)。

此外,grep 命令仅支持基础正则表达式,如果使用扩展正则表达式,需要使用 egrep 或 awk 命令。awk 命令在后面的小节进行讲解,这里我们直接使用 egrep 命令。egrep 命令与 grep 命令的用法基本相似。egrep 命令是一个搜索文件获得模式,使用该命令可以搜索文件中的任意字符串和符号,也可以搜索一个或多个文件的字符串,一个提示符可以是单个字符、一个字符串、一个字或一个句子。

与基础正则表达式类型相同,扩展正则表达式也包含多个元字符,常见的扩展正则表达  式的元字符主要包括以下几个。

3.1案列

+     作用:重复一个或者一个以上的前一个字符

示例:执行“egrep -n 'wo+d' test.txt”命令,即可查询"wood" "woood" "woooooood"等字符串

?   作用:零个或者一个的前一个字符

示例:执行“egrep -n 'bes?t' test.txt”命令,即可查询“bet”“best”这两个字符串

|      作用:使用或者(or)的方式找出多个字符

示例:执行“egrep -n 'of|is|on' test.txt”命令即可查询"of"或者"if"或者"on"字符串

()     作用:查找“组”字符串

示例:“egrep -n 't(a|e)st' test.txt”。“tast”与“test”因为这两个单词的“t”与“st”是重复的,所以将“a”与“e”

列于“()”符号当中,并以“|”分隔,即可查询"tast"或者"test"字符串

()+   作用:辨别多个重复的组

示例:“egrep -n 'A(xyz)+C' test.txt”。该命令是查询开头的"A"结尾是"C",中间有一个以上的"xyz"字符串的意思

4.元字符操作的案列

(1)查找特定字符

查找特定字符非常简单,如执行以下命令即可从 test.txt 文件中查找出特定字符“the”所在位置。其中“-n”表示显示行号、“-i”表示不区分大小写。命令执行后,符合匹配标准的字符, 字体颜色会变为红色(本章中全部通过加粗显示代替)。

grep -n 'the' test.txt

若反向选择,如查找不包含“the”字符的行,则需要通过 grep 命令的“-v”选项实现,并配合“-n”一起使用显示行号。

grep -vn 'the' test.txt

(2)利用中括号“[ ]”来查找集合字符

想要查找“shirt”与“short”这两个字符串时,可以发现这两个字符串均包含“sh”与“rt”。此时执行以下命令即可同时查找到“shirt”与“short”这两个字符串,其中“[]”中无论有几个字符, 都仅代表一个字符,也就是说“[io]”表示匹配“i”或者“o”。

grep -n 'sh[io]rt' test.txt

若要查找包含重复单个字符“oo”时,只需要执行以下命令即可。

grep -n 'oo' test.txt

若查找“oo”前面不是“w”的字符串,只需要通过集合字符的反向选择“[^]”来实现该目的。例如执行“grep -n‘[^w]oo’test.txt”命令表示在 test.txt 文本中查找“oo”前面不是“w”的字符串。

grep -n '[^w]oo' test.txt

在上述命令的执行结果中发现“woood”与“wooooood”也符合匹配规则,二者均包含“w”。其实通过执行结果就可以看出,符合匹配标准的字符加粗显示,而上述结果中可以得知, “#woood #”中加粗显示的是“ooo”,而“oo”前面的“o”是符合匹配规则的。同理“#woooooood #”也符合匹配规则。

若不希望“oo”前面存在小写字母,可以使用“grep -n‘[^a-z]oo’test.txt”命令实现,其中

“a-z”表示小写字母,大写字母则通过“A-Z”表示。

[root@localhost ~]# grep -n '[^a-z]oo' test.txt

查找包含数字的行可以通过“grep -n ‘[0-9]’test.txt”命令来实现。

[root@localhost ~]# grep -n '[0-9]' test.txt

(3)查找行首“^”与行尾字符“$”

基础正则表达式包含两个定位元字符:“^”(行首)与“$”(行尾)。在上面的示例中, 查询“the”字符串时出现了很多包含“the”的行,如果想要查询以“the”字符串为行首的行,则可以通过“^”元字符来实现。

[root@localhost ~]# grep -n '^the' test.txt

查询以小写字母开头的行可以通过“^[a-z]”规则来过滤,查询大写字母开头的行则使用

“^[A-Z]”规则,若查询不以字母开头的行则使用“^[^a-zA-Z]”规则。

过滤出小写开头并显示这些行的行号

[root@localhost ~]# grep -n '^[a-z]' test.txt

过滤出大写开头并显示这些行的行号

[root@localhost ~]# grep -n '^[A-Z]' test.txt

过滤出所有不以字母(‌无论大小写)‌开头的行‌并显示这些行的行号

[root@localhost ~]# grep -n '^[^a-zA-Z]' test.txt

“^”符号在元字符集合“[]”符号内外的作用是不一样的,在“[]”符号内表示反向选择,在“[]” 符号外则代表定位行首。反之,若想查找以某一特定字符结尾的行则可以使用“$”定位符。例如,执行以下命令即可实现查询以小数点(.)结尾的行。因为小数点(.)在正则表达式中也是一个元字符(后面会讲到),所以在这里需要用转义字符“\”将具有特殊意义的字符转化成普通字符。

过滤出所有以点(‌.)‌结尾的行并显示这些行的行号。‌

[root@localhost ~]# grep -n '\.$' test.txt

当查询空白行时,执行“grep -n‘^$’test.txt”命令即可。

[root@localhost ~]# grep -n '^$' test.txt

(4)查找任意一个字符“.”与重复字符“*”

前面提到,在正则表达式中小数点(.)也是一个元字符,代表任意一个字符。例如执行以下命令就可以查找“w??d”的字符串,即共有四个字符,以 w 开头 d 结尾。

[root@localhost ~]# grep -n 'w..d' test.txt

在上述结果中,“wood”字符串“w..d”匹配规则。若想要查询 oo、ooo、ooooo 等资料, 则需要使用星号(*)元字符。但需要注意的是,“*”代表的是重复零个或多个前面的单字符。 “o*”表示拥有零个(即为空字符)或大于等于一个“o”的字符,因为允许空字符,所以执行“grep -n 'o*' test.txt”命令会将文本中所有的内容都输出打印。如果是“oo*”,则第一个 o 必须存在, 第二个 o 则是零个或多个 o,所以凡是包含 o、oo、ooo、ooo,等的资料都符合标准。同理,若查询包含至少两个 o 以上的字符串,则执行“grep -n 'ooo*' test.txt”命令即可。

[root@localhost ~]# grep -n 'ooo*' test.txt

查询以 w 开头 d 结尾,中间包含至少一个 o 的字符串,执行以下命令即可实现。

[root@localhost ~]# grep -n 'woo*d' test.txt

执行以下命令即可查询以 w 开头 d 结尾,中间的字符可有可无的字符串。

[root@localhost ~]# grep -n 'w.*d' test.txt

执行以下命令即可查询任意数字所在行。

[root@localhost ~]# grep -n '[0-9][0-9]*' test.txt

(5)查找连续字符范围“{}”

在上面的示例中,使用了“.”与“*”来设定零个到无限多个重复的字符,如果想要限制一个范围内的重复的字符串该如何实现呢?例如,查找三到五个 o 的连续字符,这个时候就需要使用基础正则表达式中的限定范围的字符“{}”。因为“{}”在 Shell 中具有特殊意义,所以在使用“{}”字符时,需要利用转义字符“\”,将“{}”字符转换成普通字符。“{}”字符的使用方法如下所示。

① 查询两个 o 的字符。

[root@localhost ~]# grep -n 'o\{2\}' test.txt

② 查询以 w 开头以 d 结尾,中间包含 2~5 个 o 的字符串。

[root@localhost ~]# grep -n 'wo\{2,5\}d' test.txt

③ 查询以 w 开头以 d 结尾,中间包含 2 个或 2 个以上 o 的字符串。

[root@localhost ~]# grep -n 'wo\{2,\}d' test.txt

总结:元字符

通过上面几个简单的示例,可以了解到常见的基础正则表达式的元字符主要包括以下几个

^     匹配输入字符串的开始位置。除非在方括号表达式中使用,表示不包含该字符集合。要匹配“^” 字符本身,请使用“\^”

$     匹配输入字符串的结尾位置。如果设置了RegExp 对象的 Multiline 属性,则“$”也匹配‘\n’或‘\r’。要匹配“$”字符本身,请使用“\$”

.      匹配除“\r\n”之外的任何单个字符

\      反斜杠,又叫转义字符,去除其后紧跟的元字符或通配符的特殊意义

*      匹配前面的子表达式零次或多次。要匹配“*”字符,请使用“\*”

[]     字符集合。匹配所包含的任意一个字符。例如,“[abc]”可以匹配“plain”中的“a”

[^]   赋值字符集合。匹配未包含的一个任意字符。例如,“[^abc]”可以匹配“plin”中任何一个字母

[n1-n2]   字符范围。匹配指定范围内的任意一个字符。例如,“[a-z]”可以匹配“a”到“z”范围内的任意一个小写字母字符。

注意:只有连字符(-)在字符组内部,并且出现在两个字符之间时,才能表示字符的范围;如果出现在字符组的开头,则只能表示连字符本身

{n}   n 是一个非负整数,匹配确定的 n 次。例如,“o{2}”不能匹配“Bob”中的“o”,但是能匹配“food”中的“oo”

{n,}  n 是一个非负整数,至少匹配 n 次。例如,“o{2,}”不能匹配“Bob”中的“o”,但能匹配“foooood”中的所有o。“o{1,}”等价于“o+”。“o{0,}”则等价于“o*”

{n,m}      m 和 n 均为非负整数,其中 n<=m,最少匹配 n 次且最多匹配m 次

二、文本处理工具

cut、sort、uniq、tr

1.cut:列截取工具

使用说明:

cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段写至标准输出。

如果不指定 File 参数,cut 命令将读取标准输入。必须指定 -b、-c 或 -f 标志之一

选项:

-b:按字节截取

-c:按字符截取,常用于中文

-d:指定以什么为分隔符截取,默认为制表符

-f:通常和-d一起

2.sort:行排序

是一个以行为单位对文件内容进行排序的工具,也可以根据不同的数据类型来排序。例如数据和字符的排序就不一样

语法:

sort [选项] 参数

常用选项

-t:指定分隔符,默认使用[Tab]吧 键或空格分隔

-k:指定排序区域,哪个区间排序

-n:按照数字进行排序,默认是以文字形式排序

-u:等同于 uniq,表示相同的数据仅显示一行,注意:如果行尾有空格去重就不成功

-r:反向排序,默认是升序,-r就是降序

-o:将排序后的结果转存至指定文件

//不加任何选项默认按第一列升序,字母的话就是从a到z由上

3.uniq:去重

主要用于去除连续的重复行

注意:是连续的行,所以通常和sort结合使用先排序使之变成连续的行再执行去重操作,否则不连续的重复行他不能去重

(1)语法

uniq [选项] 参数

(2)常用选项

-c:对重复的行进行计数;

-d:仅显示重复行;

-u:仅显示出现一次的行

实例1:查看登陆用户

[root@localhost ~]# who

root     :0           2021-04-29 00:09 (:0)

root     pts/0        2021-04-29 00:09 (:0)

root     pts/1        2021-06-10 01:32 (192.168.245.1)

[root@localhost ~]# who | awk '{print $1}'

root

root

root

[root@localhost ~]# who | awk '{print $1}'| uniq

root

实例2:查看登陆过系统的用户

[root@localhost ~]# last | awk '{print $1}' | sort | uniq | grep -v "^$" | grep -v wtmp

reboot

root

shengjie

4.tr:字符转换

tr:它可以用一个字符来替换另一个字符,或者可以完全除去一些字符,也可以用它来除去重复字符

语法

用法:tr [选项]… SET1 [SET2]

从标准输入中替换、缩减和/或删除字符,并将结果写到标准输出。

常用选项

-d 删除字符

-s 删除所有重复出现的字符,只保留第一个

1.统计当前连接主机数

ss -nt |tr -s " "|cut -d " " -f5|cut -d ":" -f1 |sort|uniq -c

2.统计当前主机的连接状态

ss -nta | grep -v '^State' |cut -d" " -f1|sort |uniq -c

三、文本处理器

在Linux/UNIX 系统中包含很多种类的文本处理器或文本编辑器,其中包括我们之前学习过的VIM 编辑器与grep 等。而 grep,sed,awk 更是Shell 编程中经常用到的文本处理工具, 被称之为Shell 编程三剑客

1.sed 工具

sed(Stream EDitor)是一个强大而简单的文本解析转换工具,可以读取文本,并根据指定的条件对文本内容进行编辑(删除、替换、添加、移动等),最后输出所有行或者仅输出处理的某些行。sed也可以在无交互的情况下实现相当复杂的文本处理操作,被广泛应用于Shell脚本中,用以完成各种自动化处理任务。

sed 的工作流程主要包括读取、执行和显示三个过程。

读取:sed 从输入流(文件、管道、标准输入)中读取一行内容并存储到临时的缓冲区中(又称模式空间,pattern space)。

执行:默认情况下,所有的 sed 命令都在模式空间中顺序地执行,除非指定了行的地址,否则 sed 命令将会在所有的行上依次执行。

显示:发送修改后的内容到输出流。在发送数据后,模式空间将会被清空。

在所有的文件内容都被处理完成之前,上述过程将重复执行,直至所有内容被处理完。

注意:默认情况下所有的 sed 命令都是在模式空间内执行的,因此输入的文件并不会发生任何变化,除非是用重定向存储输出。

1.1sed 命令常见用法

通常情况下调用 sed 命令有两种格式,如下所示。其中,“参数”是指操作的目标文件, 当存在多个操作对象时用,文件之间用逗号“,”分隔;而 scriptfile 表示脚本文件,需要用“-f” 选项指定,当脚本文件出现在目标文件之前时,表示通过指定的脚本文件来处理输入的目标文件。

sed [选项] '操作' 参数

sed [选项] -f scriptfile 参数

常见的 sed 命令选项主要包含以下几种。

-e 或--expression=:表示用指定命令或者脚本来处理输入的文本文件。

-f 或--file=:表示用指定的脚本文件来处理输入的文本文件。

-h 或--help:显示帮助。

-n、--quiet 或 silent:表示仅显示处理后的结果。

-i.bak:直接编辑文本文件。

 -r, -E 使用扩展正则表达式

 -s  将多个文件视为独立文件,而不是单个连续的长文件流

“操作”用于指定对文件操作的动作行为,也就是 sed 的命令。通常情况下是采用的“[n1[,n2]]”操作参数的格式。n1、n2 是可选的,代表选择进行操作的行数,如操作需要在 5~ 20 行之间进行,则表示为“5,20 动作行为”。常见的操作包括以下几种。

a:增加,在当前行下面增加一行指定内容。

c:替换,将选定行替换为指定内容。

d:删除,删除选定的行。

i:插入,在选定行上面插入一行指定内容。

p:打印,如果同时指定行,表示打印指定行;如果不指定行,则表示打印所有内容;如果有非打印字符,则以 ASCII 码输出。其通常与“-n”选项一起使用。

s:替换,替换指定字符。

y:字符转换。

1.2用法示例

在本小节中依旧以 test.txt 文件为例进行演示。

(1)输出符合条件的文本(p 表示正常输出)

 sed -n 'p' test.txt   #输出所有内容,等同于 cat test.txt

[root@localhost ~]# sed -n '3p' test.txt  //输出第 3 行

[root@localhost ~]# sed -n '3,5p' test.txt      //输出 3~5 行

[root@localhost ~]# sed -n 'p;n' test.txt //输出所有奇数行,n 表示读入下一行资料

[root@localhost ~]# sed -n 'n;p' test.txt //输出所有偶数行,n 表示读入下一行资料

[root@localhost ~]# sed -n '1,5{p;n}' test.txt //输出第 1~5 行之间的奇数行(第 1、3、5 行) he was short and fat.

[root@localhost ~]# sed -n '10,${n;p}' test.txt      //输出第 10 行至文件尾之间的偶数行

#woood # AxyzxyzxyzxyzC

Misfortunes never come alone/single.

(2)删除符合条件的文本(d)

因为后面的示例还需要使用测试文件 test.txt,所以在执行删除操作之前需要先将测试文件备份。以下示例分别演示了 sed 命令的几种常用删除用法。

下面命令中 nl 命令用于计算文件的行数,结合该命令可以更加直观地查看到命令执行的结果。

[root@localhost ~]# nl test.txt | sed '3d' //删除第 3 行

[root@localhost ~]# nl test.txt | sed '3,5d'      //删除第 3~5 行

[root@localhost ~]# nl test.txt |sed '/cross/d'

//删除包含 cross 的行,原本的第 8 行被删除;如果要删除不包含 cross 的行,用!符号表示取反操作, 如'/cross/!d'

[root@localhost ~]# sed '/^[a-z]/d' test.txt   //删除以小写字母开头的行

[root@localhost ~]# sed '/\.$/d' test.txt  //删除以"."结尾的行

[root@localhost ~]# sed '/^$/d' test.txt //删除所有空行

注 意 : 若 是 删 除 重 复 的 空行 , 即 连 续 的 空 行 只 保 留 一 个 , “cat -s test.txt”。

(3)替换符合条件的文本

在使用 sed 命令进行替换操作时需要用到 s(字符串替换)、c(整行/整块替换)、y

(字符转换)命令选项,常见的用法如下所示。

sed 's/the/THE/' test.txt     //将每行中的第一个the 替换为 THE

sed 's/l/L/2' test.txt     //将每行中的第 2 个 l 替换为 L

sed 's/the/THE/g' test.txt   //将文件中的所有the 替换为 THE

sed 's/o//g' test.txt      //将文件中的所有o 删除(替换为空串)

sed 's/^/#/' test.txt     //在每行行首插入#号

sed '/the/s/^/#/' test.txt    //在包含the 的每行行首插入#号

sed 's/$/EOF/' test.txt  //在每行行尾插入字符串EOF

sed '3,5s/the/THE/g' test.txt      //将第 3~5 行中的所有 the 替换为 THE

sed '/the/s/o/O/g' test.txt  //将包含the 的所有行中的 o 都替换为 O

sed -i.bak 's/SELINUX=disabled/SELINUX=enable/' /etc/selinux/config

(4)迁移符合条件的文本

在使用 sed 命令迁移符合条件的文本时,常用到以下参数.

H:复制到剪贴板;

g、G:将剪贴板中的数据覆盖/追加至指定行;

w:保存为文件;

r:读取指定文件;

a:追加指定内容。具体操作方法如下所示。

i:忽略大小写

sed '/the/{H;d};$G' test.txt  //将包含the 的行迁移至文件末尾,{;}用于多个操作

sed '1,5{H;d};17G' test.txt   //将第 1~5 行内容转移至第 17 行后

sed '/the/w out.file' test.txt //将包含the 的行另存为文件 out.file

sed '/the/r /etc/hostname' test.txt   //将文件/etc/hostname 的内容添加到包含 the 的每行以后

sed '3aNew' test.txt     //在第 3 行后插入一个新行,内容为New

sed '/the/aNew' test.txt      //在包含the 的每行后插入一个新行,内容为 New

sed '3aNew1\nNew2' test.txt    //在第 3 行后插入多行内容,中间的\n 表示换行

(5)使用脚本编辑文件

使用 sed 脚本将多个编辑指令存放到文件中(每行一条编辑指令),通过“-f”选项来调用。例如执行以下命令即可将第 1~5 行内容转移至第 16 行后。

sed '1,5{H;d};16G' test.txt   //将第 1~5 行内容转移至第 16 行后

|| 表示上一条命令执行失败后,才执行下一条命令

2.awk

1.概述

AWK 是一种处理文本文件的语言,是一个强大的文本分析工具。

它是专门为文本处理设计的编程语言,也是行处理软件,通常用于扫描、过滤、统计汇总工作。数据可以来自标准输入也可以是管道或文件。

2.工作原理

 当读到第一行时,匹配条件,然后执行指定动作,再接着读取第二行数据处理,不会默认输出。如果没有定义匹配条件默认是匹配所有数据行,awk隐含循环,条件匹配多少次动作就会执行多少次逐行读取文本,默认以空格或tab键为分隔符进行分隔,将分隔所得的各个字段保存到内建变量中,并按模式或者条件执行编辑命令。

 sed命令常用于一整行的处理,而awk比较、倾向于将一行分成多个""字段"然后再进行处理。awk

信息的读入也是逐行读取的,执行结果可以通过print的功能将字段数据打印显示。在使用awk命令的过程中,可以使用逻辑操作符" &&"表示"与"、"||表示"或"、"!"表示非";还可以进行简单的数学运算,如+、一、*、/、%、^分别表示加、减、乘、除、取余和乘方。

3.工作流程

man gawk----》pattern scanning and processing language 模式扫描和处理语言。

pattern [ˈpætn] 模式 ; process [ˈprəʊses] 处理

任何 awk 语句都是由模式和动作组成,一个 awk 脚本可以有多个语句。模式决定动作语句的触发条件和触发时间。

在 linux 上常用的是 gawk,awk 是 gawk 的链接文件

awk---->gawk 即: gun awk

[root@benet22 opt]# which awk

/usr/bin/awk

[root@benet22 opt]# ll `which awk`

lrwxrwxrwx. 1 root root 4 8月 19 2022 /usr/bin/awk -> gawk

3.1 运行模式

正则表达式 : /root/ 匹配含有 root 的行 /*.root/

关系表达式: < > && || + *

匹配表达式: ~ !~ 动作:

变量 命令 内置函数 流控制语句它的语法结构如下:

awk [options] 'BEGIN{ print "start" } ‘pattern{ commands }’ END{ print "end" }' file 其中:BEGIN END 是 AWK 的关键字部,因此必须大写;这两个部分开始块和结束块是可选的

3.2 执行流程

BEGIN 语句设置计数和打印头部信息,在任何动作之前进行

END 语句输出统计结果,在完成动作之后执行

AWK执行的流程非常简单:读(Read)、执行(Execute)与重复(Repeat)。下面的流程图描述出了AWK的工作流程

通过上面我们可以知道;AWK 它工作通过三个步骤

1、读(Read):从文件、管道或标准输入中读入一行然后把它存放到内存中

2、执行(Execute):对每一行数据,根据 AWK 命令按顺序执行。默认情况是处理每一行数据,也可以指定模式

3、重复(Repeat):一直重复上述两个过程直到文件结束

4.基本语法

4.1命令格式

awk 选项' 模式或条件{操作}' 文件1 文件2 ...

awk -f 脚本文件 文件1 文件2 ..

格式:awk关键字 选项 命令部分 '{xxxx}' 文件名

**AWK 支持两种不同类型的变量:内建变量(可直接使用),自定义变量awk 内置变量(预定义变量)

如下所示:

FS:指定每行文本的字段分隔符,默认为空格或制表位。

NF:当前处理的行的字段个数。在执行过程中对应于当前的字段数,NF:列的个数

NR:当前处理的行的行号(序数)。 在执行过程中对应于当前的行号

$0:当前处理的行的整行内容。

$n:当前处理行的第 n 个字段(第 n 列)。比如: $1 表示第一个字段,$2 表示第二个字段

FILENAME:被处理的文件名(当前输入文件的名)。

FNR 各文件分别计数的行号

OFS 输出字段分隔符(默认值是一个空格)

ORS 输出记录分隔符(默认值是一个换行符)

RS:行分隔符。awk从文件上读取资料时,将根据Rs的定义把资料切割成许多条记录, 而awk一次仅读

入一条记录,以进行处理。预设值是" \n'

简说:数据记录分隔,默认为\n,即每行为一条记录

开始块(BEGIN block)

主体块(Body Block)

结束块(END Block)

5.实战案列

5.1 内建变量

awk 包含几个特殊的内建变量(可直接用)如下所示:

FS:指定每行文本的字段分隔符,默认为空格或制表位。

NF:当前处理的行的字段个数。

NR:当前处理的行的行号(序数)。

$0:当前处理的行的整行内容。

$n:当前处理行的第 n 个字段(第 n 列)。

FILENAME:被处理的文件名。

RS:行分隔符。awk从文件上读取资料时,将根据Rs的定义把资料切割成许多条记录, 而awk一次仅读入一

条记录,以进行处理。预设值是" \n'

简说:数据记录分隔,默认为\n,即每行为一条记录

<font color='orange'>[root@locahost mysql]# cd /data/zabbix4.0.30/database/mysql</font>

#==========案列文本测试========

#===========print=============

[root@localhost ~]#awk 'patterm{action}'

[root@localhost ~]#awk ' '

#什么都不写 空没有效果

[root@localhost ~]#awk '{print}'

##在打印一遍

dd

dd

[root@localhost ~]#awk '{print "hello"}'

#字符串需要添加双引号,单引号已被使用

1

5.2 内置变量

awk常用内置变量:$1、$2、NF、NR、$0

$1:代表第一列

$2:代表第二列以此类推

$0:代表整行

NF:一行的列数

NR:行数

hello

1

hello

[root@localhost ~]#awk '{print "hello"}' < /etc/passwd

[root@localhost ~]# cat /etc/passwd | head -10 > zz

[root@localhost ~]# awk '{print}' zz

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

[root@localhost ~]# awk '{print $1}' zz

root:x:0:0:root:/root:/bin/bash //awk默认把这一行当做一列,因为没有被空格分隔,awk默

认以空格或tab键分隔

bin:x:1:1:bin:/bin:/sbin/nologin

hello

[root@localhost ~]# awk -F: '{print $5}' zz //自定义冒号为分隔符显示分隔之后的第五列

root

bin

[root@localhost ~]# awk -Fx '{print $1}' /etc/passwd //用x作为分隔符

root:

[root@localhost ~]# awk '{print $1 $2}' zz

helloworld

[root@localhost ~]# awk '{print $1""$2}' zz //显示一个空格,空格需要用双引号引起来,如

果不用引号默认以变量看待,如果是常量就需要双引号引起来

hello world

[root@localhost ~]# awk '{print $1,$2}' zz //逗号有空格效果

hello world

[root@localhost ~]# awk -F: '{print $1"\t"$2}' /etc/passwd //用制表符作为分隔符输

[root@localhost ~]# awk -F[:/] '{print $9}' zz //定义多个分隔符,只要看到其中一个都

算作分隔符

bin

sbin

[root@localhost ~]# awk -F: '/root/{print $0}' pass.txt //打印包含root的整行内容

root:x:0:0:root:/root:/bin/bash

[root@localhost ~]# awk -F: '/root/{print $1}' pass.txt //打印包含root的行的第

一列

root

[root@localhost ~]# awk -F: '/root/{print $1,$6}' pass.txt //打印包含root的行的

第一列和第六列

root /root

[root@localhost ~]# awk '/root/' /etc/passwd

root:x:0:0:root:/root:/bin/bash

operator:x:11:0:operator:/root:/sbin/nologin

输出shadow文件中以冒号分隔的第二列有感叹号的行的第一列

[root@localhost ~]# awk -F[:/] '{print NF}' zz //打印每一行的列数

10

10

[root@localhost ~]# awk -F[:/] '{print NR}' zz //显示行号

1

2

[root@localhost ~]# awk -F: '{print NR}' pass.txt

1

2

3

4

5

[root@localhost ~]# awk -F: '{print NR,$0}' pass.txt

1 root:x:0:0:root:/root:/bin/bash

2 bin:x:1:1:bin:/bin:/sbin/nologin

3 daemon:x:2:2:daemon:/sbin:/sbin/nologin

4 adm:x:3:4:adm:/var/adm:/sbin/nologin

5 lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

[root@localhost ~]# awk 'NR==2' /etc/passwd //打印第二行,不加print也一样,默认就是

打印

bin:x:1:1:bin:/bin:/sbin/nologin

[root@localhost ~]# awk 'NR==2{print}' /etc/passwd //同上效果

bin:x:1:1:bin:/bin:/sbin/nologin

[root@localhost ~]# awk -F: 'NR==2{print $1}' /etc/passwd //打印第二行的第一列

[root@localhost ~]# awk -F: '{print $NF}' /etc/passwd //打印最后一列

/bin/bash

/sbin/nologin

[root@localhost ~]# awk 'END{print NR}' /etc/passwd //打印总行数

65

[root@localhost ~]# awk 'END{print $0}' /etc/passwd //打印文件最后一行

stu10:x:1020:1020::/home/stu10:/bin/bash

[root@localhost ~]# awk -F: '{print "当前行有"NF"列"}' zz

扩展生产案列:网卡的ip、流量

5.3 BEGIN END 运算

逐行执行开始之前执行什么任务,结束之后再执行什么任务,用BEGIN、END

BEGIN一般用来做初始化操作,仅在读取数据记录之前执行一次

END一般用来做汇总操作,仅在读取完数据记录之后执行一次

当前行有7列

当前行有7列

[root@localhost ~]# awk -F: '{print "第"NR"行有"NF"列"}' /etc/passwd //第几行有几

第1行有7列

第2行有7列

第3行有7列

###扩展生产:网卡的ip、流量

[root@localhost ~]# ifconfig ens33 | awk '/netmask/{print "本机的ip地址是"$2}'

$本机的ip地址是192.168.245.211

[root@localhost ~]# ifconfig ens33 | awk '/RX p/{print $5"字节"}'

8341053字节

#根分区的可用量

[root@localhost ~]# df -h | awk 'NR==2{print $4}'

45G

awk的运算:

[root@localhost ~]# awk 'BEGIN{x=10;print x}'

#如果不用引号awk就当作一个变量来输出了,所以不需要加$了

10

[root@localhost ~]# awk 'BEGIN{x=10;print x+1}' /

#BEGIN在处理文件之前,所以后面不跟文件名也不影响

11

[root@localhost ~]# awk 'BEGIN{x=10;x++;print x}'

11

[root@localhost ~]# awk 'BEGIN{print x+1}' #

#不指定初始值,初始值就为0,如果是字符串,则默认为空

1

[root@localhost ~]# awk 'BEGIN{print 2.5+3.5}'

#小数也可以运算

6

[root@localhost ~]# awk 'BEGIN{print 2-1}'

1

[root@localhost ~]# awk 'BEGIN{print 3*4}'

12

[root@localhost ~]# awk 'BEGIN{print 3**2}'

9

[root@localhost ~]# awk 'BEGIN{print 2^3}'

##^和**都是幂运算

8

[root@localhost ~]# awk 'BEGIN{print 1/2}'

0.5

5.4关于数值与字符串的比较

比较符号:== != <= >= < >

[root@localhost ~]# awk -F: '/root/' /etc/passwd

#如果后面有具体打印多少列就没法省略print了

root:x:0:0:root:/root:/bin/bash

operator:x:11:0:operator:/root:/sbin/nologin

##模糊匹配,用~表示包含,!~表示不包含

[root@localhost ~]# awk -F: '$1~/root/' /etc/passwd

root:x:0:0:root:/root:/bin/bash

[root@localhost ~]# awk -F: '$1~/ro/' /etc/passwd //模糊匹配,只要有ro就匹配上

root:x:0:0:root:/root:/bin/bash

chrony:x:993:988::/var/lib/chrony:/sbin/nologin

setroubleshoot:x:990:984::/var/lib/setroubleshoot:/sbin/nologin

[root@localhost ~]# awk -F: '$7!~/nologin$/{print $1,$7}' /etc/passwd

案列

[root@localhost ~]# awk 'NR==5{print}' /etc/passwd

lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

[root@localhost ~]# awk 'NR==5' /etc/passwd

lp:x:4:7:lp:/var/spool/lpd:/sbin/nologin

[root@localhost ~]# awk 'NR<5' /etc/passwd

root:x:0:0:root:/root:/bin/bash

bin:x:1:1:bin:/bin:/sbin/nologin

daemon:x:2:2:daemon:/sbin:/sbin/nologin

adm:x:3:4:adm:/var/adm:/sbin/nologin

[root@localhost ~]# awk -F: '$3==0' /etc/passwd

root:x:0:0:root:/root:/bin/bash

[root@localhost ~]# awk -F: '$1==root' /etc/passwd

[root@localhost ~]# awk -F: '$1=="root"' /etc/passwd //精确匹配一定是root

root:x:0:0:root:/root:/bin/bash

[root@localhost ~]# awk -F: '$3>=1000' /etc/passwd

nfsnobody:x:65534:65534:Anonymous NFS User:/var/lib/nfs:/sbin/nologin

shengjie:x:1000:1000:shengjie:/home/shengjie:/bin/bash

5.5逻辑运算 && ||

&& 和 || 是逻辑运算符,用于组合多个条件并控制程序流程。

&& 要求所有条件都为真时才为真,否则为假。

|| 只要有一个条件为真就为真,全为假时才为假。

[root@localhost ~]# awk -F: '$3<10 || $3>=1000' /etc/passwd

[root@localhost ~]# awk -F: '$3>10 && $3<1000' /etc/passwd

其他内置变量的用法FS(输入)、OFS、NR、FNR、RS、ORS

FS:输入字段的分隔符 默认是空格

OFS:输出字段的分隔符 默认也是空格

FNR:读取文件的记录数(行号),从1开始,新的文件重新重1开始计数

RS:输入行分隔符 默认为换行符

ORS:输出行分隔符 默认也是为换行符

[root@localhost ~]# awk -F: 'NR>4 && NR<10' /etc/passwd

案列:

打印1-200之间所有能被7整除并且包含数字7的整数数字

[root@localhost ~]# seq 200 | awk '$1%7==0 && $1~/7/'

7

70

77

147

175

#==============FS==================

[root@localhost ~]# awk 'BEGIN{FS=":"}{print $1}' pass.txt //在打印之前定义字段

分隔符为冒号

root

bin

daemon

adm

lp

##========OFS==============

[root@localhost ~]# awk 'BEGIN{FS=":";OFS="---"}{print $1,$2}' pass.txt

#OFS定义了输出时以什么分隔,$1$2中间要用逗号分隔,因为逗号默认被映射为OFS变量,而这个变量默认是

空格

root---x

bin---x

daemon---x

adm---x

lp---x

###================FNR===============

[root@localhost ~]# awk '{print FNR,$0}' /etc/resolv.conf /etc/hosts //可以看出

FNR的行号在追加当有多个文件时

1

2 nameserver 114.114.114.114

3 search localdomain

1 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

2 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

####========NR================

[root@localhost ~]# awk '{print NR,$0}' /etc/resolv.conf /etc/hosts

1

2 nameserver 114.114.114.114

3 search localdomain

4 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

5.4 awk高级用法

5.5 awk if语句

awk的if语句也分为单分支、双分支和多分支

5 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

#####=======RS===============

[root@localhost ~]# awk 'BEGIN{RS=":"}{print $0}' /etc/passwd

#RS:指定以什么为换行符,这里指定是冒号,你指定的肯定是原文里存在的字符

root

x

0

0

root

######=======ORS===========

[root@localhost ~]# awk 'BEGIN{ORS=" "}{print $0}' /etc/passwd //把多行合并成一行

输出,输出的时候自定义以空格分隔每行,本来默认的是回车键

#定义引用变量

[root@localhost ~]# a=100

[root@localhost ~]# awk -v b="$a" 'BEGIN{print b}'

#将系统的变量a,在awk里赋值为变量b,然后调用变量b -v 选项将其传递给 awk

100

[root@localhost ~]# awk 'BEGIN{print "'$a'"}' //直接调用的话需要先用双引号再用单引号

100

[root@localhost ~]# awk -vc=1 'BEGIN{print c}' //awk直接定义变量并引用

1

[root@localhost ~]# df -h | awk 'BEGIN{getline}/root/{print $0}'

#调用函数getline,读取一行数据的时候并不是得到当前行而是当前行的下一行

/dev/mapper/centos-root 50G 5.2G 45G 11% /

[root@localhost ~]# seq 10 | awk '{getline;print $0}' //显示偶数行

2

4

6

8

10

[root@localhost ~]# seq 10 | awk '{print $0;getline}' //显示奇数行

1

3

5

7

9

5.6 BEGIN END 流程

awk还支持for循环、while循环、函数、数组等

其他

awk 'BEGIN{ commands } pattern{ commands } END{ commands }'

第一步:运行BEGIN{ commands }语句块中的语句。

第二步:从文件或标准输入(stdin)读取一行。然后运行pattern{ commands }语句块,它逐行扫描文

件,从第一行到最后一行反复这个过程。直到文件所有被读取完成。

第三步:当读至输入流末尾时,运行END{ commands }语句块。

BEGIN语句块在awk开始从输入流中读取行之前被运行,这是一个可选的语句块,比方变量初始化、打

印输出表格的表头等语句通常能够写在BEGIN语句块中。

END语句块在awk从输入流中读取全然部的行之后即被运行。比方打印全部行的分析结果这类信息汇总

都是在END语句块中完毕,它也是一个可选语句块。

pattern语句块中的通用命令是最重要的部分,它也是可选的。假设没有提供pattern语句块,则默认运

行{ print },即打印每个读取到的行。awk读取的每一行都会运行该语句块。

这三个部分缺少任何一部分都可以

[root@localhost ~]# awk -F: '{if($3<10){print $0}}' /etc/passwd //第三列小于10的

打印整行

[root@localhost ~]# awk -F: '{if($3<10){print $3}else{print $1}}' /etc/passwd

//第三列小于10的打印第三列,否则打印第一列

案列

[root@localhost ~]#awk 'BEGIN{x=0};/\/bin\/bash$/ {x++;print x,$0};END {print

x}' /etc/passwd

#统计以/ bin/bash结尾的行数,等同于

[root@localhost ~]#grep -c "/bin/bash$" /etc/passwd

BEGIN模式表示,在处理指定的文本之前,需要先执行BEGIN模式中指定的动作; awk再处理指定的文本,之

后再执行END模式中指定的动作,END{}语句块中,往往会放入打印结果等语句

[root@localhost ~]#awk -F ":" '! ($3<200){print} ' /etc/passwd

#输出第3个字段的值不小于200的行

[root@localhost ~]#awk 'BEGIN {FS=":"} ;{if($3>=1000){print}}' /etc/passwd

#先处理完BEGIN的内容,再打印文本里面的内容

[root@localhost ~]#awk -F ":" ' {max=($3>=$4) ?$3:$4; {print max}} ' /etc/passwd

(了解)

#($3>$4)?$3:$4三元运算符,如果第3个字段的值大于等于第4个字段的值,则把第3个字段的值赋给max,

否则第4个字段的值赋给max

=============================================

[root@localhost ~]#awk -F ":" '{print NR,$0}' /etc/passwd

#输出每行内容和行号,每处理完一条记录,NR值加1

[root@localhost ~]#sed -n '=;p' /etc/passwd

[root@localhost ~]#awk -F ":" '$7~"bash"{print $1,47}' /etc/passwd

#输出以冒号分隔且第7个字段中包含/bash的行的第1个字段

[root@localhost ~]#awk -F: '/bash/ {print $1}' /etc/passwd

[root@localhost ~]#awk -F":"'($1~"root") && (NF==7) {print $1,$2,$NF } '

/etc/passwd

#第1个字段中包含root且有7个字段的行的第1、2个字段

[root@localhost ~]#awk -F ":" '($7!="/bin/bash")&&($7!="/sbin/nologin"){print} '

/etc/passwd

#输出第7个字段既不为/bin/bash,也不为/sbin/nologin的所有行

#输出第7个字段既不为/bin/bash,也不为/sbin/nologin的所有行

[root@localhost ~]#awk -F: '($NF !=" /bin/bash")&&($NF !=" /sbin/nologin" )

{print NR, $0}' passwd

通过管道、双引号调用shell 命令:

[root@localhost ~]#echo $PATH | awk 'BEGIN{RS=":"};END {print NR}'

#统计以冒号分隔的文本段落数,END{ }语句块中,往往会放入打印结果等语句

[root@localhost ~]#echo $PATH | awk 'BEGIN{RS=":"};{print NR,$0};END {print NR}'

[root@localhost ~]#awk -F: '/bash$/{print | "wc -l"}' /etc/passwd

#调用wc -l命令统计使用bash 的用户个数,等同于grep -c "bash$" etc/passwd

[root@localhost ~]#awk -F: '/bash$/ {print}' /etc/passwd | wc -l

[root@localhost ~]#free -m |awk '/Mem:/ {print int($3/($3+$4)*100)"%"}' #查看当

前内存使用百分比

[ root@localhost ~]# free -m | awk '/Mem:/ {print $3/$2}'0.327869

[root@localhost ~]# free -m | awk '/Mem:/ {print $3/$2*100}'32.7869

[ root@localhost ~]# free -m | awk '/Mem:/ {print int($3/$2*100)}'32

[ root@localhost ~]# free -m | awk '/Mem:/ {print int($3/$2*100)"%"}’32%

[root@localhost ~]#free -m | awk '/Mem:/ {print $3/$2*100}' | awk -F. '{print $1

"%"}'

[root@localhost ~]#top -b -n 1 | grep Cpu | awk -F ',' '{print $4}'| awk '{print

$1}'

#查看当前CPU空闲率,(-b -n 1表示只需要1次的输出结果)

dao 100%

[root@localhost ~]#date -d "$(awk -F "." '{print $1}'/proc/uptime) second

ago"+"%F%H:%M:%S" 了解

显示上次系统重启时间,等同于uptime; second ago为显示多少秒前的时间,+$” 选日:3N:3S等同于

+"3Y-n-%d 3日:8N:8S"的时间格式

5.7 AWK 数组

[root@localhost ~]#date -d "$(awk -F "." '{iprint $1}'/proc/uptime) second

ago"+"号F%H:%M:%S" 了解

#显示上次系统重启时间,等同于uptime; second ago为显示多少秒前的时间,+"F悉日:M::S"等同于

+"%1-tm-d 日: 38:8S"的时间格式

[root@localhost ~]# awk 'BEGIN {n=0 ; while ("w" | getline) n++ ; {print n-2}}'

#调用w命令,并用来统计在线用户数

注:先做如下实验

[root@localhost ~]#seq 10 | awk ' {getline; print $0 }'

[root@localhost ~]#seq 10 | awk ' { print $0 ; getline } '

[root@localhost ~]#awk 'BEGIN { "hostname" | getline ; {print $0}}'

#调用hostname,并输出当前的主机名

#当getline左右无重定向符"<"或"I"时,awk首先读取到了第一行,就是1,然后getline,就得到了1下面

的第二行,就是2,因为getline之后,awk会改变对应的NE,NR,FNR和$0等内部变量,所以此时的$O的值

就不再是1,而是2了,然后将它打印出来。

当getline左右有重定向符"<"或"I"时,getline则作用于定向输入文件,由于该文件是刚打开,

并没有被awk读入一行,只是getline读入,那么getline返回的是该文件的第一行,而不是隔行。

CPU使用率(算不)

cpu_us=`top -b -n 1 | grep Cpu | awk '{print $2}'`

#用户空间程序CPU的占用的比列

cpu_sy=`top -b -n 1 | grep Cpu | awk -F ',' '{print $2}' | awk '{print $1}'`

# 系统占用的时间比列

cpu_sum=$(echo "$cpu_us + $cpu_sy" | bc)

echo $cpu_sum

vmstat

echo "A B C D" | awk '{OFS="|"; print $0;$1=$1;print $0}'

A B C D

A|B|C|D

$1=$1是用来激活$0的重新赋值,也就是说

字段$1...和字段数NF的改变会促使awk重新计算$0的值,通常是在改变OFS后而需要输出$0时这样做

echo "A B C D" | awk 'BEGIN{OFS="|"};{print $0;$1=$1;print $0}'

echo "A B C D" | awk 'BEGIN{OFS="|"};{print $0;$1=$1;print $1,$2}'

echo "A B C D" | awk 'BEGIN{OFS="|"};{$2=$2;print $1,$2}'

PS1:BEGIN中的命令只执行一次

PS2: awk数组的下标除了可以使用数字,也可以使用字符串,字符串需要使用双引号

[root@localhost ~]#awk 'BEGIN{a[0]=10;a[1]=20;print a[1]}'

[root@localhost ~]#awk 'BEGIN{a[0]=10;a[1]=20;print a[0]}'

[root@localhost ~]#awk 'BEGIN{a["abc"]=10;a["xyz"]=20;print a["abc"]}'

[root@localhost ~]#awk 'BEGIN{a["abc"]=10;a["xyz"]=20;print a["xyz"]}'

5.8 awk 循环

生产案列:

[root@localhost ~]#awk 'BEGIN{a["abc"]="aabbcc";a["xyz"]="xxyyzz";print

a["xyz"]}'

#结合数组和for循环

[root@localhost ~]# awk 'BEGIN{a[0]=10;a[1]=20;a[2]=30;for(i in a){print

i,a[i]}}'

使用awk统计httpd 访问日志中每个客户端IP的出现次数?

答案:

[root@localhost ~]# awk '{a[$1]+=1;} END {for(i in a){print a[i]" "i;}}'

/var/log/httpd/access_log | sort -r

[root@localhost ~]# awk '{ip[$1]++;}END{for(i in ip){print ip[i],i}}'

/var/log/httpd/access_log | sort -r

备注:定义数组,数组名称为ip,数字的下标为日志文件的第1列(也就是客户端的IP地址),++的目的在于对

客户端进行统计计数,客户端IP出现一次计数器就加1。END中的指令在读取完文件后执行,通过循环将所有统

计信息输出,for循环遍历的是数组名ip的下标。

可用awk来统计固定格式日志里的一些数据,如日志中出现过所有不同的IP

awk对文件进行流处理,每次读取一行。$1就是IP,count[i]++是将IP作为一个数组的下标,并且使得统计

这个IP所对应的数组元素自增1.END后面的语句是打印结果,只执行一次

awk ‘{i=$1;count[i]++}END{for(i in count)print(i,count[i])}’

/var/log/httpd/access_log

[root@localhost ~]# awk '{a[$1] += 1;} END {for (i in a) printf("%d %s\n", a[i],

i);}'

#日志文件 | sort -n | tail -n 10 #用tail显示最后10行

[root@localhost ~]# awk '/Failed password/ {print $0} ' /var/log/secure

[root@localhost ~]# awk '/Failed password/ {print $11} ' /var/log/secure

[root@localhost ~]# awk '/Failed/{ip[$11]++}END{for(i in ip){print i","ip[i]}}'

/var/log/secure

#中断 几次

[root@localhost ~]# awk '/Failed password/{ip[$11]++}END{for(i in ip){print

i","ip[i]}}' /var/log/secure

#失败几次

脚本编写

#!/bin/ bash

x=`awk '/Failed password/{ip[$11]++}END{for(i in ip){print i","ip[i]}}'

/var/log/secure`

6、总结

grep 和 egrep 文本过滤 (更适合单纯的查找或匹配文本)

sed 流编辑器 实现编辑的(更适合编辑匹配到的文本)

awk 文本报告生成器 实现格式化文本输出(更适合格式化文本,对文本进行较复杂格式处理)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值