flume详解 从原理到应用

本文详细介绍了Apache Flume,一个用于大数据收集、聚合和传输的高可用、高可靠系统。Flume由Source、Sink和Channel组成,提供灵活的数据传输。常见应用场景包括从Web服务器收集日志并存储到HDFS。文中还涵盖了Flume的安装部署、基础概念如Agent、Event,以及入门案例,如监听端口、监控文件。此外,文章还讨论了Flume的进阶主题,如事务、拓扑结构、自定义Interceptor,以及在企业中的实际应用和面试问题。
摘要由CSDN通过智能技术生成

第一章 flume概述

1.1 flume定义
flume是cloudera提供的一个高可用,高可靠,分布式的海量日志采集、聚合和传输的系统。flume基于流式架构,灵活简单。
在这里插入图片描述
flume最主要的作用:实时读取服务器本地磁盘的数据,将数据写入HDFS或kafka消息队列中。

flume的设计宗旨是向hadoop集群批量导入基于事件的海量数据。一个典型的例子就是利用flume从一组web服务器中收集日志文件,然后把这些文件中的日志事件转移到一个新的HDFS汇总文件中以做进一步的处理,所以flume的终点sink一般是HDFS,当然因为flume本生的灵活性,又可以将采集到的数据输出到HDFS、hbase、hive、kafka等众多外部存储系统中

1.2 flume基础架构
flume的组成架构如图所示:
在这里插入图片描述
1.2.1 agent
agent是一个jvm进程,他以事件的形式将数据从源头送至目的地。
agent主要有3个部分组成:source、channel、sink

1.2.2 source
source在flume agent组建中起到负责接收数据的作用。source组件可以处理各种类型、各种格式的日志数据,包括avro、exec、spooling directory、taildir、netcat、thrift、jms、legacy……。

1.2.3 sink
sink不断地轮询channel中的事件且批量地移除他们,并将在这些事件批量写入到存储或索引系统、或者被发送到另一个flume agent。
sink传输数据的目的地包括hdfs、logger、avro、file、hbase、kafka……。

1.2.4 channel
channel是位于source和sink之间的缓冲区。因此,channel允许source和sink运作在不同的速率上。channel是线程安全的,可以同时处理几个source的写入操作和几个sink的读取操作。也就是说,在一个flume当中可以同时有多个source,多个channel或者多个sink。
flume自带两种channel:memory channelfile channel
memory channel是内存中的队列。memory channel在不需要关心数据丢失的情况下适用。如果担心数据丢失,那么memory channel就不是一个好的选择,**由于在memory channel将事件存储在内存中,那么当程序死亡、机器宕机或者机器重启时都会有导致数据丢失的风险。**因此,memory也被称作,不稳定隧道。

file channel将所有事件写入到磁盘当中。因此在程序关闭或者机器宕机的情况下不会丢失数据。因此,file channel也被称作为持久化隧道。

1.2.5 event
传输单元,flume传输数据的基本单元,以event事件的形式将数据从源头送至目的地。event由header和body两部分组成,header用来存放改event的一些属性值,为k—v结构,body用来存放该条数据,形式为字节数组。
在这里插入图片描述
第二章 flume入门

2.1 flume安装部署

2.1.1 安装地址

(1)Flume官网地址:http://flume.apache.org/
(2)文档查看地址:http://flume.apache.org/FlumeUserGuide.html
(3)下载地址:http://archive.apache.org/dist/flume/

2.1.2 安装部署

(1)将apache-flume-1.9.0-bin.tar.gz上传到linux的/opt/software目录下
(2)解压apache-flume-1.9.0-bin.tar.gz到/opt/module/目录下

[atguigu@hadoop101 software]$ tar -zxf /opt/software/apache-flume-1.9.0-bin.tar.gz -C /opt/module/

(3)修改apache-flume-1.9.0-bin的名称为flume(这一步是为了以后写该路径时更加简洁方便

[atguigu@hadoop101 module]$ mv /opt/module/apache-flume-1.9.0-bin /opt/module/flume

(4)将lib文件夹下的guava-11.0.2.jar删除以兼容Hadoop 3.1.3

[atguigu@hadoop101 lib]$  rm /opt/module/flume/lib/guava-11.0.2.jar

2.2 flume入门案例

2.2.1 监控端口数据官方案例

1)案例需求:
使用Flume监听一个端口,收集该端口数据,并打印到控制台。

2)需求分析:
在这里插入图片描述
3)实现步骤:

(1)安装netcat工具

[atguigu@hadoop101 software]$ sudo yum install -y nc

(2)判断44444端口是否被占用
(3)创建Flume Agent配置文件flume-netcat-logger.conf
(4)在flume目录下创建job文件夹并进入job文件夹。

[atguigu@hadoop101 flume]$ mkdir job
[atguigu@hadoop101 flume]$ cd job/

(5)在job文件夹下创建Flume Agent配置文件flume-netcat-logger.conf。

[atguigu@hadoop101 job]$ vim flume-netcat-logger.conf

(6)在flume-netcat-logger.conf文件中添加如下内容。

# Name the components on this agent             //配置agent,将此agent命名为a1
a1.sources = r1                                 //将此agent的source命名为r1
a1.sinks = k1                                   //将此agent的sink命名为k1
a1.channels = c1                                //将此agent的channel命名为c1

# Describe/configure the source                 //配置source
a1.sources.r1.type = netcat                     //定义source的类型为netcat
a1.sources.r1.bind = localhost                  //表明当前的agent a1监听的主机
a1.sources.r1.port = 44444                      //表明当前agent a1监听的端口号

# Describe the sink                             //配置sink
a1.sinks.k1.type = logger                       //表示a1的输出目的地是控制台logger类型

# Use a channel which buffers events in memory  //配置channel
a1.channels.c1.type = memory                    //表明当前agent的channel类型为memory channel
a1.channels.c1.capacity = 1000                  //表明当前agent的memory channel的总容量为1000个event事件
a1.channels.c1.transactionCapacity = 100        //表明当前agent的channel收集到100个event事件过后再去提交事务

# Bind the source and sink to the channel       //配置source、sink和channel之间的联系关系
a1.sources.r1.channels = c1              //表示将r1和c1连接起来
a1.sinks.k1.channel = c1                 //表示将k1和c1连接起来

(7)先开启flume监听端口

[atguigu@hadoop101 flume]$ bin/flume-ng agent -c conf/ -n a1 -f job/netcat2-flume-logger.conf  -Dflume.root.logger=INFO,console

特别注意:代码中INFO,console之间是英文逗号,而非中文逗号或英文句号

这里说明一下flume-ng代表的意义:
说到flume-ng,就不得不提到以前的flume-og,现在基本已经不再用flume-og
在 OG 版本中,Flume 的使用稳定性依赖 zookeeper。它需要 zookeeper 对其多类节点(agent、collector、master)的工作进行管理,尤其是在集群中配置多个 master 的情况下。当然,OG也可以用内存的方式管理各类节点的配置信息,但是需要用户能够忍受在机器出现故障时配置信息出现丢失。所以说 OG 的稳定行使用是依赖zookeeper 的。
而在 NG 版本中,节点角色的数量由 3 缩减到 1,不存在多类角色的问题,所以就不再需要 zookeeper 对各类节点协调的作用了,由此脱离了对 zookeeper 的依赖。由于 OG 的稳定使用对 zookeeper 的依赖表现在整个配置和使用过程中,这就要求用户掌握对 zookeeper 集群的搭建及其使用。

参数说明:
–conf/-c:表示配置文件存储在conf/目录
–name/-n:表示给agent起名为a1
–conf-file/-f:flume本次启动读取的配置文件是在job文件夹下的flume-telnet.conf文件。
-Dflum

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值