Flume初学习笔记

本文记录了Flume的基础学习,包括Flume的安装配置、数据源、通道和接收器的使用,以及如何在大数据环境中整合Hadoop进行数据传输。通过实例展示了Flume在日志收集中的应用,帮助理解其在大数据处理中的作用。
摘要由CSDN通过智能技术生成
Flume Cloudera 提供的一个高可用的,高可靠的,分布式的 海量日志采集、聚合和传
输的系统 Flume 基于流式架构,灵活简单,动态采集。
只能识别文档,不能识别PPT,图片等其他格式
最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到 HDFS
Agent
Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的。
Agent 主要有 3 个部分组成, Source Channel Sink
Source
Source 是负责接收数据到 Flume Agent 的组件。
Source 组件可以处理各种类型、各种格式的日志数据,
包括 avro、thrift、exec、jms、spooling directory、netcat、taildir、 sequence generator、syslog、http、legacy。
Sink
Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储
或索引系统、或者被发送到另一个 Flume Agent。
Sink 组件目的地包括 hdfs、logger、avro、thrift、ipc、file、HBase、solr、自定
义。
Channel
Channel 是位于 Source 和 Sink 之间的缓冲区。
因此,Channel 允许 Source 和 Sink 运作在不同的速率上。
Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个 Sink 的读取操作。
Flume 自带两种 Channel: Memory Channel File Channel
Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适
用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕
机或者重启都会导致数据丢失。
File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据
Event
Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。
Event 由 Header Body 两部分组成,Header 用来存放该 event 的一些属性,为 K-V 结构,
Body 用来存放该条数据,形式为字节数组。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值