Flume

Flume概念

Flume is a distributed, reliable, and available service for efficiently collecting, aggregating, and moving large amounts of log data。

Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。

Flume 的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume 再删除自己缓存的数据。

Flume 支持定制各类数据发送方,用于收集各类型数据;同时,Flume 支持定制各种数据接受方,用于最终存储数据。一般的采集需求,通过对 flume 的简单配置即可实现。针对特殊场景也具备良好的自定义扩展能力。因此,flume 可以适用于大部分的日常数据采集场景。

1 Flume历史

当前 Flume 有两个版本。Flume 0.9X 版本的统称 Flume OG(original generation),Flume1.X 版本的统称 Flume NG(Flume-728)(next generation)。由于 Flume NG 经过核心组件、核心配置以及代码架构重构,与 Flume OG 有很大不同,使用时请注意区分。改动的另一原因是将 Flume 纳入 apache 旗下,Cloudera Flume 改名为 Apache Flume。

2 运行机制

Flume 系统中核心的角色是 agent,agent 本身是一个 Java 进程,一般运行在日志收集节点。

1540347254561

每一个 agent 相当于一个数据传递员,内部有三个组件:

Source:采集源,用于跟数据源对接,以获取数据;

Sink:下沉地,采集数据的传送目的,用于往下一级 agent 传递数据或者往

最终存储系统传递数据;

Channel:agent 内部的数据传输通道,用于从 source 将数据传递到 sink;在整个数据的传输的过程中,流动的是 event,它是 Flume 内部数据传输的最基本单元。event 将传输的数据进行封装。如果是文本文件,通常是一行记录, event 也是事务的基本单位。event 从 source,流向 channel,再到 sink,本身为一个字节数组,并可携带 headers(头信息)信息。event 代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去。

一个完整的 event 包括:event headers、event body、event 信息,其中 event 信息就是 flume 收集到的日志记录。

flume的工作过程:先指定Source将数据进行采集,输出到Channel,Channel相当于内存存储,当Channel存储到一定值时,将数据写入到Sink中

Flume的可配置子组件:

  • Source

    • Avro Source 序列化数据源

    • ThriftSource 序列化数据源

    • Exec Source 执行Linux命令行的数据源

    • NETCAT Source 通过指定端口,ip监控的数据源

    • Kafka Source 直接对接Kafka的数据源

    • 自定义Source

  • Channel

    • Memory Channel

    • File Channel

    • Kafka Channel

    • JDBC Channel

  • Sink

    • HDFS Sink 写入到HDFS

    • Hive Sink 写入到Hive

    • Avro Sink 写入到序列化

    • HBase Sinks 写入到HBase

      • HBase Sink 同步写入到HBase

      • Async HBase Sink 异步写入到Hbase

3 安装部署

  • 前置条件

  • Java 1.7 or later

  • 为sources,channels和sinks提供充足的内存

  • 为channles提供充足的磁盘空间

  • 为agent提供读和写权限

  • 安装过程

  • 上传安装包到数据源所在节点上

  • 然后解压 tar -zxvf apache-flume-1.8.0-bin.tar.gz -C /export/server

  • 然后进入 flume 的目录,修改 conf 下的 flume-env.sh,在里面配置 JAVA_HOME

  • 配置flume环境变量:

vim /etc/profile
​
export FLUME_HOME=/export/server/apache-flume-1.8.0-bin
​
export PATH=$FLUME_HOME/bin:$PATH
​
source /etc/profile
  • 检查是否配置成功:flume-ng version 查看flume版本

根据数据采集需求配置采集方案,描述在配置文件中(文件名可任意自定义)

指定采集方案配置文件,在相应的节点上启动 flume agent

4 系统结构

简单结构

单个 agent 采集数据

复杂结构

  • 单个agent写入到不同的数据源中

5 采集数据到kafka

pro.sources = s1
pro.channels = c1
pro.sinks = k1
​
pro.sources.s1.type = TAILDIR
pro.sources.s1.filegroups = f1
pro.sources.s1.filegroups.f1 = /tmp/pycharm_project_567/Online/datacollection/source_data/user-event-20231103
pro.sources.s1.positionFile = /export/data/flume/taildir_position.json
pro.sources.s1.batchSize = 10
​
pro.channels.c1.type = memory
pro.channels.c1.capacity = 1000
pro.channels.c1.transactionCapacity = 100
​
pro.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
pro.sinks.k1.kafka.topic = tfec_nginx_log
pro.sinks.k1.kafka.bootstrap.servers = up01:9092
pro.sinks.k1.kafka.flumeBatchSize = 20
pro.sinks.k1.kafka.producer.acks = 1
pro.sinks.k1.kafka.producer.compression.type = snappy
​
pro.sources.s1.channels = c1
pro.sinks.k1.channel = c1

使用flume的关键就是定义配置文件,根据需求,首先定义以下 3 大要素

采集源,即 source——监控文件 : /root/tmp/user_profile_65/datacollection/source_data/access-nginx-20230114

下沉目标,即 sink——kafka : KafkaSink

source 和 sink 之间的传递通道——channel

source的配置

采集源,即 source——监控文件内容更新 : TAILDIR

channel的配置

  • capacity:默认该通道中最大的可以存储的 event 数量

  • trasactionCapacity:每次最大可以从 source 中拿到或者送到 sink 中的 event数量

sink的配置

kafka.producer.acks

kafka.producer.compression.type snappy

  • 压缩算法 snappy谷歌开源的压缩算法, 压缩速度快, 压缩率低

启动采集

在flume 的 conf 目录下运行

nohup flume-ng agent -n pro -c ./ -f nginxlog2kafka.conf & 

-n : agent的name -c:conf目录路径 -f:配置文件路径

  • 23
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值