ELK日志分析系统
文章平均质量分 94
眼下一颗柠檬
这个作者很懒,什么都没留下…
展开
-
ELK日志分析(二)之ELK搭建部署
Logstash配置文件基本由三部分组成(根据需要选择使用)input:表示从数据源采集数据,常见的数据源如Kafka、日志文件等filter:表示数据处理层,包括对数据进行格式化处理、数据类型转换、数据过滤等,支持正则表达式output:表示将Logstash收集的数据经由过滤器处理之后输出到Elasticsearch。修改Logstash配置文件,让其收集系统日志/var/log/messages,并将其输出到Elasticsearch中。原创 2022-10-13 08:34:30 · 776 阅读 · 0 评论 -
ELK日志分析系统(一)之ELK原理
随着业务量的增长,每天业务服务器将会产生上亿条的日志,单个日志文件达几个GB,这时我们发现Linux自带工具,cat grep awk 分析越来越力不从心了,而且除了服务器日志,还有程序报错日志,分布在不同的服务器,查阅繁琐ELK是三个软件的统称,即Elasticsearch、logstash和kibana三个开源软件的缩写。这三款软件都是开源软件,通常配合使用,并且都会先后归于Elastic.co企业名下,故被简称为ELK协议线。原创 2022-10-12 18:43:40 · 2857 阅读 · 0 评论