目录
- 1 查看有多少个IP访问
- 2 查看某一个页面被访问的次数
- 3 查看每一个IP访问了多少个页面
- 4 将每个IP访问的页面数进行从小到大排序
- 5 查看某一个IP访问了哪些页面
- 6 去掉搜索引擎统计的页面
- 7 查看2015年8月16日14时这一个小时内有多少IP访问
- 8 查看访问前十个ip地址
- 9 访问次数最多的10个文件或页面
- 10 访问量最大的前20个ip
- 11 通过子域名访问次数,依据referer来计算,稍有不准
- 12 列出传输大小最大的几个文件
- 13 列出输出大于200000byte(约200kb)的页面以及对应页面发生次数
- 14 如果日志最后一列记录的是页面文件传输时间,则有列出到客户端最耗时的页面
- 15 列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
- 16 列出传输时间超过 30 秒的文件
- 17 列出当前服务器每一进程运行的数量,倒序排列
- 18 查看apache当前并发访问数
- 19 可以使用如下参数查看数据
- 20 输出每个ip的连接数,以及总的各个状态的连接数
- 21 其他的收集
- 22 列出最最耗时的页面(超过60秒的)的以及对应页面发生次数
- 23 统计网站流量(G)
- 24 统计404的连接
- 25 统计http status
- 26 每秒并发
- 27 带宽统计
- 28 找出某天访问次数最多的10个IP
- 29 当天ip连接数最高的ip都在干些什么
- 30 小时单位里ip连接数最多的10个时段
- 31 找出访问次数最多的几个分钟
- 32 取5分钟日志
- 33 则判断开始时间戳与结束时间戳是否相等
- 34 查看tcp的链接状态
- 35 查找请求数前20个IP(常用于查找攻来源):
- 36 用tcpdump嗅探80端口的访问看看谁最高
- 37 查找较多time_wait连接
- 38 找查较多的SYN连接
- 39 根据端口列进程
- 40 查看了连接数和当前的连接数
- 41 查看IP访问次数
- 42 Linux命令分析当前的链接状况
- 43 通过watch可以一直监控
1 查看有多少个IP访问
awk '{print $1}' log_file|sort|uniq|wc -l
2 查看某一个页面被访问的次数
grep "/index.php" log_file | wc -l
3 查看每一个IP访问了多少个页面
awk '{++S[$1]} END {for (a in S) print a,S[a]}' log_file > log.txt
sort -n -t ' ' -k 2 log.txt # 配合sort进一步排序
4 将每个IP访问的页面数进行从小到大排序
awk '{++S[$1]} END {for (a in S) print S[a],a}' log_file | sort -n
5 查看某一个IP访问了哪些页面
grep ^111.111.111.111 log_file| awk '{print $1,$7}'
6 去掉搜索引擎统计的页面
awk '{print $12,$1}' log_file | grep ^\"Mozilla | awk '{print $2}' |sort | uniq | wc -l
7 查看2015年8月16日14时这一个小时内有多少IP访问
awk '{print $4,$1}' log_file | grep 16/Aug/2015:14 | awk '{print $2}'| sort | uniq | wc -l
8 查看访问前十个ip地址
awk '{print $1}' |sort|uniq -c|sort -nr |head -10 access_log
uniq -c 相当于分组统计并把统计数放在最前面
cat access.log|awk '{print $1}'|sort|uniq -c|sort -nr|head -10
cat access.log|awk '{
counts[$(11)]+=1}; END {
for(url in counts) print counts[url], url}
9 访问次数最多的10个文件或页面
cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr | head -10
10 访问量最大的前20个ip
cat log_file|awk '{print $11}'|sort|uniq -c|sort -nr|head -20
awk '{print $1}' log_file |sort -n -r |uniq -c | sort -n -r | head -20
11 通过子域名访问次数,依据referer来计算,稍有不准
cat access.log | awk '{print $11}' | sed -e ' s/http:\/\///' -e ' s/\/.*//' | sort | uniq -c <