Flume+Elasticsearch搭建实时日志分析系统

本文介绍了使用Flume和Elasticsearch搭建实时日志分析系统的实践,详细阐述了从Nginx日志采集到数据导入Elasticsearch的过程,包括Flume配置和自定义Nginx日志解析。项目背景是为了检测全球网络状况,通过Flume实时获取Nginx日志并导入Elasticsearch,以供报表系统展示。
摘要由CSDN通过智能技术生成

最近做一个检测全球网络状况的项目,主要用于检测全球各个国家,地区的机房网络状况,服务的性能,DNS解析等等...情况的数据,通过中央服务器添加任务,下发任务到部署在全球各个国家和地区的minipc,minipc将获取到的数据反馈到监控服务,然后进行数据整合和分析提供报表,供公司更有针对性的优化网站性能。

之所以采用Flume + Elasticsearch,而没有采用ELK(elasticsearch logstash kibana),主要是因为之前的一些积累。hadoop集群的日志采集都是用Flume,而且对Flume比较熟悉,少了很多的学习成本。

总体架构:

总体流程:

1,后台编辑任务,并制定任务策略

2,后台根据任务策略,分发任务到指定的Mini PC

3,Mini PC获取到任务后,执行任务,并将执行后的任务数据发送的Nginx(现网Nginx使用keepalived做了高可用)

4,Flume通过tail命令实时获取Nginx日志

5,Flume将日志实时导入到Elasticsearch集群

6,报表系统根据用户输入的查询条件以报表,列表,图表等形式展现给用户。

实际项目要比以上流程复杂很多,其中涉及到将数据导入hadoop做离线分析。本章主要讲Flume+Elasticsearch搭建实时日志分析系统,以及如何自定义处理Nginx日志数据。

ElasticSearchSink配置(加粗字体必须设置值):
属性名称
默认值
描述
channel


type

组件的名称:org.apache.flume.sink.elasticsearch.ElasticSearchSink
hostNames

</
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值