一、Flume 概述(实时、日志、传输)
1、概念
- Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。(实时日志传输)
- 补充:Hadoop 三大发行版本
- Apache Hadoop: 最原始(最基础)的版本
- Cloudera Hadoop: 内部集成了很多大数据框架。对应产品CDH
- Hortonworks Hadoop: 文档较好。对应产品HDP(被Cloudera 收购)
- Flume 最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到 HDFS
2、Flume 基础架构
- Flume 组成架构
2.1 Agent
- Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的地。
- Agent 主要有3个部分组成,Source、Channel、Sink。
2.2 Source
- Source 是负责接收数据到 Flume Agent 的组件。Source 组件可以处理各种类型、各种格式的日志数据,包括 avro、thrift、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy。
2.3 Sink
- Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。
- Sink 组件目的地包括 hdfs、logger、avro、thrift、ipc、file、HBase、solr、自定义。
2.4 Channel
- Channel 是位于 Source 和 Sink 之间的缓冲区(通道)。因此,Channel 允许 Source 和 Sink 运作在不同的速率上。Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个Sink 的读取操作。
- Flume 自带两种 Channel:Memory Channel (存储通道) 和 File Channel(较慢但是稳定)。
- Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。(行为数据)
- File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。(业务数据)
2.5 Event
- 传输单元,Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。Event 由 Header 和 Body 两部分组成,Header 用来存放该 event 的一些属性,为K-V结构,Body 用来存放该条数据,形式为字节数组。