greap&awk&sed

本文介绍如何利用grep, awk和sed命令在Linux环境中分析日志,包括查找404/500错误,统计错误日志中的IP,分析URL,以及计算平均响应时间等步骤。" 1819195,142369,XML格式的log4j配置与过滤,"['日志管理', 'XML配置', 'log4j框架', '过滤机制']
摘要由CSDN通过智能技术生成

日志分析

对一段日志查找输出404/500的地方输出出来
1.日志cp到一个目录下:

mkdir mybash
ls
cd /mybash
cp /home/52070538/nginx.log .      
#cp 文件所在目录到.当前目录 

2.查看日志 :
less nginx.log q退出 ↓ 向下查看
cat nginx.log
tail -f nginx.log ctrl+C 退出
tail -10 nginx.log 输出日志前10行
3.找到404和500的

less nginx.log | awk '$9~/500|404/{print $0}'  #日志中状态码在第9个位置
awk '{if($9==404 || $9==500){print $0}}' nginx.log

4.统计404/500的日志中哪些ip访问的多

less nginx.log | awk 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值