awk 强大的文本分析工具
# https://www.runoob.com/linux/linux-comm-awk.html
# 每行按空格或TAB分割,输出文本中的1、4项
$ awk '{print $1,$4}' log.txt
uniq
# https://www.runoob.com/linux/linux-comm-uniq.html
# 去重,删除重复行,
-c 计算重复行 个数
sort
# https://www.runoob.com/linux/linux-comm-sort.html
# 排序
# sort -n 把文本转成数字再排序
测试
awk '{print $1}' log.txt | uniq -c | sort -n
log.txt 文本内容
hello 111
hello 111
hello 222
world 123
abc 666
2019-8-8
2019-8-8
2019-8-8
2019-8-8
2018-8-8
2018-8-8
2019-3-3
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
2019-10-10
输出结果
1 2019-3-3
1 abc
1 world
2 2018-8-8
3
3 hello
4 2019-8-8
10 2019-10-10
基于此原理,可以简单的查询访问量,每秒的并发数量等等。
nginx 查看每秒有多少访问量
https://blog.csdn.net/lupeng0206/article/details/59105790