轻松通关Flink第30讲:Flume 和 Kafka 整合和部署

Flume 概述

Flume 是 Hadoop 生态圈子中的一个重要组件,在上一课时中提过,它是一个分布式的、高可靠的、高可用的日志采集工具。

Flume 具有基于流式数据的简单灵活的架构,同时兼具高可靠性、高可用机制和故障转移机制。当我们使用 Flume 收集数据的速度超过下游的写入速度时,Flume 会自动做调整,使得数据的采集和推送能够平稳进行。

Flume 支持多路径采集、多管道数据接入和多管道数据输出。数据源可以是 HBase、HDFS 和文本文件,也可以是 Kafka 或者其他的 Flume 客户端。

Flume 的组件介绍

Flume 中有很多组件和概念,下面我把 Flume 中的核心组件一一进行介绍:

Drawing 0.png

  • Client:客户端,用来运行 Flume Agent。

  • Event:Flume 中的数据单位,可以是一行日志、一条消息。

  • Agent:代表一个独立的 Flume 进程,包含三个组件:Source、Channel 和 Sink。

  • Source:数据的收集入口,用来获取 Event 并且传递给 Channel。

  • Channel:Event 的一个临时存储,是数据的临时通道,可以认为是一个队列。

  • Sink:从 Channel 中读取 Event,将 Event 中的数据传递给下游。

  • Flow:一个抽象概念,可以认为是一个从 Source 到达 Sink 的数据流向图。

Flume 本地环境搭建

我们在 Flume 的 官网下载安装包,在这里下载一个 1.8.0 的稳定版本,然后进行解压:

tar zxf apache-flume-1.8.0-bin.tar.gz 

Drawing 1.png

可以看到有几个关键的目录,其中 conf/ 目录则是我们存放配置文件的目录。

Flume 测试

我们在下载 Flume 后,需要进行测试,可以通过监听本地的端口输入,并且在控制台进行打印。

首先,需要修改 conf/ 目录下的 flume-env.sh,在里面配置 JAVA_HOME 等配置:

cd /usr/local/apache-flume-1.8.0-bin/conf 
cp flume-env.sh.template flume-env.sh 

然后在 flume-env.sh 里面设置 JAVA_HOME 和 FLUME_CLASSPATH 变量:

export JAVA_HOME=/usr/local/java/jdk1.8 
FLUME_CLASSPATH="/usr/local/apache-flume-1.8.0-bin/" 

创建一个配置文件 nc_logger.conf :

vim nc_logger.conf 

更改配置如下:

# 定义这个 agent 中各组件的名字 
a1.sources = r1 
a1.sinks = k1 
a1.channels = c1 
# 描述和配置 source 组件:r1 
a1.sources.r1.type = netcat 
a1.sources.r1.bind = localhost 
a1.sources.r1.port = 9000 
# 描述和配置 sink 组件:k1 
a1.sinks.k1.type = logger 
# 描述和配置channel组件,此处使用是内存缓存的方式 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
# 描述和配置 source channel sink 之间的连接关系 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1 

我们使用如下命令启动一个 Flume Agent:

bin/flume-ng agent  
-c conf  
-f conf/nc_logger.conf  
-n a1 -Dflume.root.logger=INFO,console 

其中有几个关键的命令:

  • –conf (-c) 用来指定配置文件夹路径;

  • –conf-file(-f) 用来指定采集方案文件;

  • –name(-n) 用来指定 agent 名字;

  • -Dflume.root.logger=INFO,console 开启 flume 日志输出到终端。

用 nc 命令打开本地 9000 端口:

nc localhost 9000 

Drawing 2.png

向端口输入几个单词,可以在另一端的控制台看到输出结果,如下图所示:

Drawing 3.png

我们可以看到 9000 端口中输入的数据已经被打印出来了。

Flume + Kafka 整合

Drawing 4.png

整体整合思路为,我们的两个 Flume Agent 分别部署在两台 Web 服务器上,用来采集两台服务器的业务日志,并且 Sink 到另一台 Flume Agent 上,然后将数据 Sink 到 Kafka 集群。在这里需要配置三个 Flume Agent。

首先在 Flume Agent 1 和 Flume Agent 2 上创建配置文件,具体如下。

修改 source、channel 和 sink 的配置,vim log_kafka.conf 代码如下:

# 定义这个 agent 中各组件的名字 
a1.sources = r1 
a1.sinks = k1 
a1.channels = c1 
# source的配置,监听日志文件中的新增数据 
a1.sources.r1.type = exec 
a1.sources.r1.command  = tail -F /home/logs/access.log 
#sink配置,使用avro日志做数据的消费 
a1.sinks.k1.type = avro 
a1.sinks.k1.hostname = flumeagent03 
a1.sinks.k1.port = 9000 
#channel配置,使用文件做数据的临时缓存 
a1.channels.c1.type = file 
a1.channels.c1.checkpointDir = /home/temp/flume/checkpoint 
a1.channels.c1.dataDirs = /home/temp/flume/data 
#描述和配置 source channel sink 之间的连接关系 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c 

上述配置会监听 /home/logs/access.log 文件中的数据变化,并且将数据 Sink 到 flumeagent03 的 9000 端口。

然后我们分别启动 Flume Agent 1 和 Flume Agent 2,命令如下:

$ flume-ng agent  
-c conf  
-n a1  
-f conf/log_kafka.conf >/dev/null 2>&1 & 

第三个 Flume Agent 用来接收上述两个 Agent 的数据,并且发送到 Kafka。我们需要启动本地 Kafka,并且创建一个名为 log_kafka 的 Topic。

然后,我们创建 Flume 配置文件,具体如下。

修改 source、channel 和 sink 的配置,vim flume_kafka.conf 代码如下:

# 定义这个 agent 中各组件的名字 
a1.sources = r1 
a1.sinks = k1 
a1.channels = c1 
#source配置 
a1.sources.r1.type = avro 
a1.sources.r1.bind = 0.0.0.0 
a1.sources.r1.port = 9000 
#sink配置 
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink 
a1.sinks.k1.topic = log_kafka 
a1.sinks.k1.brokerList = 127.0.0.1:9092 
a1.sinks.k1.requiredAcks = 1 
a1.sinks.k1.batchSize = 20 
#channel配置 
a1.channels.c1.type = memory 
a1.channels.c1.capacity = 1000 
a1.channels.c1.transactionCapacity = 100 
#描述和配置 source channel sink 之间的连接关系 
a1.sources.r1.channels = c1 
a1.sinks.k1.channel = c1     

配置完成后,我们启动该 Flume Agent:

$ flume-ng agent  
-c conf  
-n a1  
-f conf/flume_kafka.conf >/dev/null 2>&1 & 

我们在第 24 课时“Flink 消费 Kafka 数据开发” 中详细讲解了 Flink 消费 Kafka 数据的开发。当 Flume Agent 1 和 2 中监听到新的日志数据后,数据就会被 Sink 到 Kafka 指定的 Topic,我们就可以消费 Kafka 中的数据了。

总结

这一课时首先介绍了 Flume 和 Kafka 的整合和部署,然后详细介绍了 Flume 的组件并且搭建了 Flume 的本地环境进行测试,最后介绍了 Flume 和 Kafka 整合的配置文件编写。通过本课时的学习,相信你对 Flume 有了深入了解,在实际应用中可以正确配置 Flume Agent。


精选评论

*帅:

为什么agent1和agent2不直接sink到kafka呢?

    讲师回复:

    在实际生产环境中,我们需要Flume Consolidation Agent做Flume的高可用

**冰:

还有个问题,你说第三个FLUME是做高可用,这一个单节点如何高可用了?kafka是集群的,不是更符合高可用的要求吗?

    讲师回复:

    Consolidation这种模式,通常用来处理日志数据来源是几十上百个节点的这种情况,故障发生主要在collector。你考虑的很对,可以通过kafka这种中间件实现故障转移。因为flume高可用方案重点就不再agent上。

**冰:

老师,这里我有个问题,source采用tail -f 读取更新的数据,这种重启服务时会有数据丢失吗?

    讲师回复:

    tail -f 也就是我们在日常环境做做测试,实际生产中是不会这么玩的。

**伯:

您好,我想咨询一下Flume配置的时候为什么要启动第三个FLUME而不是前面两个Flume收集到的日志直接推送到kafka中。

    讲师回复:

    小数据量规模是可以的,但是生产商一般会做Flume的高可用。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
部署KafkaFlink需要遵循以下步骤: 1. 安装Java运行环境:KafkaFlink都需要Java运行环境,因此需要先安装Java运行环境。 2. 安装Zookeeper:Kafka需要依赖Zookeeper来完成一些工作,因此需要先安装Zookeeper。 3. 安装Kafka:下载Kafka安装包,解压缩后修改配置文件,启动Kafka。 4. 安装Flink:下载Flink安装包,解压缩后修改配置文件,启动Flink。 以下是具体的步骤: 1. 安装Java运行环境:使用 apt-get 等工具安装 Java 运行环境。 ``` sudo apt-get install default-jre ``` 2. 安装Zookeeper:下载Zookeeper安装包,解压缩后修改配置文件,启动Zookeeper。 ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.6.3/apache-zookeeper-3.6.3-bin.tar.gz tar -zxvf apache-zookeeper-3.6.3-bin.tar.gz cd apache-zookeeper-3.6.3-bin/conf/ cp zoo_sample.cfg zoo.cfg cd ../bin/ ./zkServer.sh start ``` 3. 安装Kafka:下载Kafka安装包,解压缩后修改配置文件,启动Kafka。 ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.8.0/kafka_2.13-2.8.0.tgz tar -zxvf kafka_2.13-2.8.0.tgz cd kafka_2.13-2.8.0/config/ cp server.properties server_0.properties vi server_0.properties # 修改以下配置项 broker.id=0 listeners=PLAINTEXT://localhost:9092 log.dirs=/tmp/kafka-logs-0 zookeeper.connect=localhost:2181 cd .. ./bin/kafka-server-start.sh config/server_0.properties ``` 4. 安装Flink:下载Flink安装包,解压缩后修改配置文件,启动Flink。 ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.13.2/flink-1.13.2-bin-scala_2.12.tgz tar -zxvf flink-1.13.2-bin-scala_2.12.tgz cd flink-1.13.2/conf/ cp flink-conf.yaml flink-conf-0.yaml vi flink-conf-0.yaml # 修改以下配置项 jobmanager.rpc.address: localhost jobmanager.rpc.port: 6123 taskmanager.numberOfTaskSlots: 1 taskmanager.memory.process.size: 1024m cd .. ./bin/start-cluster.sh ``` 这些步骤完成后,KafkaFlink部署完成了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

源码头

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值