下载,解压
wget https://mirrors.tuna.tsinghua.edu.cn/apache/flume/1.11.0/apache-flume-1.11.0-bin.tar.gz
tar -xzvf apache-flume-1.11.0-bin.tar.gz
配置环境变量
export FLUME_HOME=/export/software/apache-flume-1.11.0
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$HBASE_HOME/bin:$MAVEN_HOME/bin:$FLUME_HOME/bin:$PATH
使用 Flume 时需要定义一个配置文件,在里面写上 Source、Channel、Sink 相关的配置。我们在 Flume 安装目录中创建一个 job 目录,然后在 job 目录里面创建一个 port-listener-logger.conf 文件,用于读取来自于socket数据,写入log日志里
# a1 表示 Agent 的名称,在启动 Flume 的时候指定
# 创建一个 Source,名叫 r1
a1.sources = r1
# 创建一个 Channel,名叫 c1
a1.channels = c1
# 创建一个 Sink,名叫 k1
a1.sinks = k1
# 指定 a1 的输入源类型为端口类型,也就是数据要通过指定的端口发送
# 这里监听本地的 9999端口
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 9999
# 表示 a1 的 Channel 类型是 memory,总容量是 1000 个 Event
# 并且每收集 100 个再去提交事务
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# 表示 a1 的输出是日志类型
a1.sinks.k1.type = logger
# 将 r1 和 k1 绑定到 c1 上,r1 会写入数据到 c1,然后 k1 会从 c1 读数据
a1.sources.r1.channels = c1
# 注意这里的 channel 后面没有 s,因为一个 Sink 只能绑定一个 Channel
a1.sinks.k1.channel = c1
配置文件写完之后,我们开启 Flume 监听。
flume-ng agent -c $FLUME_HOME/conf -n a1 -f $FLUME_HOME/port-listener-logger.conf -Dflume.root.logger=INFO,console
注意此时有可能会有类冲突
Flume 启动时找到了多个 SLF4J 绑定,SLF4J 是一个打印日志的工具。而在加载 SLF4J 对应的 Jar 包时,类名出现了冲突。
#找到 Flume 中冲突的 Jar 包,重新命个名(或者删除)就行了
mv $FLUME_HOME/lib/log4j-slf4j-impl-2.18.0.jar $FLUME_HOME</span>/lib/log4j-slf4j-impl-2.18.0.jar.bak
从图中可以看到有两个 Found binding in [jar:file:/opt/....../StaticLoggerBinder.class],另一个来自于 Hadoop,因为 Flume 也隶属于 Hadoop 生态圈,所以 Flume 启动之后会自动查找 HADOOP_HOME,加载相应的 Jar 包。但很明显有两个 Jar 包中都存在 StaticLoggerBinder.class,因此发生冲突了。
测试
telnet localhost 9999
在同一目录下 tail -f flume.log