1.Logstash简介
Logstash是一个开源数据收集引擎,具有实时流水线功能。Logstash可以动态统一来自不同来源的数据,并将数据规范化为您选择的目的地。为各种高级下游分析和可视化用例清理和民主化所有数据。
虽然Logstash最初推动了日志收集方面的创新,但其功能远远超出了该用例。任何类型的事件都可以通过广泛的输入,过滤和输出插件进行丰富和转换,许多本机编解码器进一步简化了摄取过程。Logstash利用更大量的数据来加速您的洞察力。
1.1.Logstash的力量
Elasticsearch的摄取主力等等
水平可扩展的数据处理管道,具有强大的Elasticsearch和Kibana协同作用
可插拔管道架构
混合,匹配和编排不同的输入,过滤器和输出,以便在管道协调中发挥作用
社区可扩展和开发人员友好的插件生态系统
提供超过200个插件,以及创建和贡献自己的灵活性
1.2.Logstash喜欢数据
收集更多,这样你就可以了解更多。Logstash欢迎各种形状和大小的数据。
日志和指标
一切都开始了。
网络
打开万维网
数据存储和流
从您已拥有的数据中发现更多价值。
- 通过JDBC接口更好地了解来自任何关系数据库或NoSQL存储的 数据
- 统一来自Apache Kafka, RabbitMQ和Amazon SQS等消息队列的各种数据流
传感器和物联网
探索广泛的其他数据。
- 在这个技术进步的时代,大规模物联网世界通过捕获和利用来自连接传感器的数据释放出无穷无尽的用例。
- Logstash是用于提取从移动设备发送到智能家居,联网车辆,医疗保健传感器以及许多其他行业特定应用的数据的常见事件收集主干。
轻松丰富一切
数据越好,知识越好。在摄取期间清理和转换数据,以便在索引或输出时间立即获得近实时洞察。Logstash开箱即用,包含许多聚合和突变,以及模式匹配,地理映射和动态查找功能。
- Grok是Logstash过滤器的基础,并且无处不在地用于从非结构化数据中获取结构。享受丰富的集成模式,旨在帮助快速解决Web,系统,网络和其他类型的事件格式。
- 通过从IP地址解析地理坐标,规范 日期复杂性,简化键值对和 CSV数据,指纹识别(匿名化)敏感信息,以及使用本地查找或Elasticsearch 查询进一步丰富数据,扩展您的视野。
- 编解码器通常用于简化JSON 和多行事件等常见事件结构的处理。
有关一些常用数据处理插件的概述,请参阅转换数据。
选择存储
将数据路由到最重要的位置。通过对数据进行存储,分析和采取措施,解锁各种下游分析和操作用例
分析
- Elasticsearch
- MongoDB和Riak 等数据存储
存档
监控
警报