【LogStash】---- 初学

本文介绍了LogStash的基本概念,包括其Input、Filter、Output组件的功能,以及与Flume的对比。详细阐述了LogStash的安装步骤,并提供了四个实战案例,展示了如何使用LogStash收集控制台数据,输出到控制台、Elasticsearch和Kafka。案例中强调了LogStash的灵活性和可扩展性。
摘要由CSDN通过智能技术生成

LogStash

1、LogStash的简介

LogStash能够动态的采集,转换和传输数据,不受格式和复杂度的影响。利用Grok从非结构化的数据中派生出结构,从IP地址解码出地理坐标,匿名化或者排除敏感字段,并简化整体处理过程。

LogStash分为Input、Filter、Output三个组件:

input采集各种样式、大小和来源的数据
数据往往以各种各样的形式,或分散或集中地存在于很多系统中。 Logstash 支持 各种输入选择 ,可以在同一时间从众多常用来源捕捉事件。能够以连续的流式传输方式,轻松地从您的日志、指标、Web 应用、数据存储以及各种 AWS 服务采集数据。
在这里插入图片描述

Filter: 实时解析和转换数据
数据从源传输到存储库的过程中,Logstash 过滤器能够解析各个事件,识别已命名的字段以构建结构,并将它们转换成通用格式,以便更轻松、更快速地分析和实现商业价值。

利用 Grok 从非结构化数据中派生出结构
从 IP 地址破译出地理坐标
将 PII 数据匿名化,完全排除敏感字段
简化整体处理,不受数据源、格式或架构的影响
我们的过滤器库丰富多样,拥有无限可能。
在这里插入图片描述

OutPut:选择存储库,导出数据

尽管 Elasticsearch 是我们的首选输出方向,能够为我们的搜索和分析带来无限可能,但它并非唯一选择。

Logstash 提供众多输出选择,可以将数据发送到你要指定的地方,并且能够灵活地解锁众多下游用例。
在这里插入图片描述

每一个组件之间存在一个buffer缓冲区,input接收完数据之后,将数据送往buffer缓存起来,filter从buffer拉取数据进行过滤,将过滤后的数据送往buffer缓存起来,output从buffer处拉取过滤后数据,送往目的地存储起来

LogStash各组件之间的关系图

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值