上线SQUID 后对日志的管理是个不大不小的问题,由于日志很多,所以直接查看SQUID日志效果不好,经过上网查询,发现了这个sarg的软件,转载一片不错的配置文档。
1、SARG介绍
SARG的全称是:Squid Analysis Report Generator
SARG作为一款Squid日志分析工具,它采用html格式,详细列出了每一位用户访问internet的站点信息,时间占用信息,排名,连接次数,访问量,访问量等。
软件的主页:[url]http://www.sarg-squid.org/[/url] 目前最新的版本是2.0.2
2、安装
下载了sarg的最新安装包以后,进入下载的目录,执行以下的操作进行安装:
解压缩安装软件包
#tar zxvf sarg-2.0.2.tar.gz
进入解压后的目录,
#cd sarg-2.0.2
#./configure
在这里,也可以用./configure --help看看可以使用的configure可以使用的参数,一般来说,使用默认的选项就可以了。
#make
#make install
这样,就完成了sarg的安装,如果安装过程中出现错误,可以看看有没有安装gcc,或者在安装系统是没有安装相应的开发库。如果使用默认的选项,可执行文件是/usr/bin/sarg,配置文件是/usr/local/sarg/sarg.conf,在 /usr/local/sarg目录下还有一些其他的文件和目录。
3、配置
安装成功后,在/usr/local/sarg/目录中,有一个配置文件为sarg.conf,我们通过修改配置文件的参数,来达到对日志进行有规则的分析。也可以通过命令行参数实现。
sarg配置文件的方法和squid配置文件的配置方法类似,只要修改带有关键字的行:
"language english"
指定网页报告文件的语言类型,很可惜不支持中文网页。
"access_log /usr/local/squid/logs/access.log"
指定squid日志文件绝对路径。
"title "squid user access reports"
指定网页标题,可以写中文网页,内核支持先。
"temporary_dir /var/tmp"
指定临时文件目录,请确认该目录所在的分区足够大先,1g以上。
"output_dir /var/www/html/squid-reports"
指定网页报告文件输出路径,推荐使用webmaster或其他非admin用户运行sarg。
"topuser_sort_field connect reverse bytes reverse"
在top排序中,指定连接次数(connect),访问字节数(bytes)采用降序排列,升序请使用normal替代reverse
"user_sort_field connect reverse"
对于每个用户的访问纪录,连接次数按降序排列
"exclude_hosts /usr/local/sarg/norecords"
指定不计入排序的站点列表文件名为/usr/local/sarg/norecords,对于客户端 访问的这些站点,将不会被top排序中,norecords文件样本:
google.com
csdn.net
microsoft.com
"date_format e"
启动sarg进程是如果使用日期参数-d时,请使用和配置文件一致的日期格:
e (europe=dd/mm/yy),
u (usa=mm/dd/yy),
w (weekly=yy.ww)
"topuser_fields num date_time userid connect bytes %bytes in-cache-out used_time milisec %time total average"
指定top排序的域,可以取掉一些不关紧要的域:in-cache-out used_time等
"weekdays 1-5"
指定top排序星期周期为星期一到星期五,0表示星期天
"hours 9-11,13-16"
指定top排序的时间周期为9:00-11:59,13:00-16:59,哈哈,差不多为上班时间
至此,sarg.conf文件的配置基本上over了,还有些不是太重要的配置一看就明白,在此就不耽误大家的时间了。
sarg的命令行解释如下:
# sarg -h
sarg: usage [options...]
-a hostname or ip address
指定不计入排序的主机名称或地址
-b useragent log
用户代理日志文件输出
-c exclude file
指定不计入排序的站点列表文件名为/usr/local/sarg/norecords,对于客户端访问的这
些站点,将不会被top排序中
-d date from-until dd/mm/yyyy-dd/mm/yyyy
指定日期范围
-e email address to send reports (stdout for console)
指定报告接收者邮件
-f config file (/usr/local/sarg/sarg.conf)
指定配置文件
-g date format [e=europe -> dd/mm/yy, u=usa -> mm/dd/yy]
指定输入的日期格式
-h help (this...)
列帮助信息
-i reports by user and ip address
指定客户端排序采用用户名或者ip地址
-l input log
指定squid日志文件绝对路径。
-o output dir
指定网页报告文件输出路径,推荐使用webmaster或其他非admin用户运行
sarg。
-p use ip address instead userid (reports)
使用ip地址作为userid域
-w temporary dir
指定临时文件目录,请确认该目录所在的分区足够大先,1g以上。
4、运行
一般来说,我们希望系统可以自动生成日志分析以后的结果。在这里,我们利用cron来实现,把以下的相应脚本放到cron里面去执行即可
日报告:
-------------------------------------
#!/bin/bash
#Get current date
TODAY=$(date +%d/%m/%Y)
#Get one week ago today
YESTERDAY=$(date --date "1 day ago" +%d/%m/%Y)
/usr/local/bin/sqmgrlog -l /usr/local/squid/logs/access.log -o /usr/local/apache/htdocs/reports/daily -z -d $YESTERDAY-$TODAY
exit 0
周报告:
-------------------------------------
#!/bin/bash
#Get current date
TODAY=$(date +%d/%m/%Y)
#Get one week ago today
YESTERDAY=$(date --date "1 week ago" +%d/%m/%Y)
/usr/local/bin/sqmgrlog -l /usr/local/squid/logs/access.log -o /usr/local/apache/htdocs/reports/weekly -z -d $YESTERDAY-$TODAY
exit 0
月报告:
-------------------------------------
#!/bin/bash
#Get current date
TODAY=$(date +%d/%m/%Y)
#Get one week ago today
YESTERDAY=$(date --date "1 month ago" +%d/%m/%Y)
/usr/local/bin/sqmgrlog -l /usr/local/squid/logs/access.log -o /usr/local/apache/htdocs/reports/monthly -z -d $YESTERDAY-$TODAY
/usr/local/squid/bin/squid -k rotate
exit 0
通过邮件发送报告:
#!/bin/bash
#Get current date
TODAY=$(date +%d/%m/%Y)
#Get one week ago today
YESTERDAY=$(date --date "1 day ago" +%d/%m/%Y)
/usr/local/bin/sqmgrlog -l /usr/local/squid/logs/access.log -e [email]user@site.com[/email] -z -d $YESTERDAY-$TODAY
exit 0
需要说明的是如果想要直接浏览日志报告,需要启用LINUX APACHE,具体方式这里不说了,默认路径为:http//yourip/squid-reports/index.html
©著作权归作者所有:来自51CTO博客作者6509E的原创作品,如需转载,请注明出处,否则将追究法律责任
0
收藏
推荐专栏更多
猜你喜欢
我的友情链接
LINUX WEB管理器webmin
搭建ELK日志分析平台(上)—— ELK介绍及搭建 Elasticsearch 分布式集群
用Kibana和logstash快速搭建实时日志查询、收集与分析系统
ELK 日志分析系统
搭建ELK日志分析平台(下)—— 搭建kibana和logstash服务器
journalctl工具基础介绍
CentOS 7安装部署ELK 6.2.4
开源实时日志分析ELK平台部署
日志处理两大生态Splunk和ELK深度对比
ELK-filebeat收集日志到Kafka,并转存ES
如何查看crontab的日志记录
API网关如何实现对服务下线实时感知
浅谈ACL(访问控制列表)
Confluence 未授权 RCE (CVE-2019-3396) 漏洞分析
亿级日搜索量的美团如何构建高效的搜索系统?
玩转KVM:怎么追查KVM故障
mysql5.7.25主从同步图解(主:CentOS7.5,从win10)
springboot2+exporter+prometheus+grafana搭建监控体系
使用Alpine Linux和Oracle jre6构建Tomcat6镜像及应用容器化
扫一扫,领取大礼包
转载于:https://blog.51cto.com/6509e/115730
Ctrl+Enter 发布
发布
取消