扇入Sink
扇入、扇出就是利用多个flume实例进行数据的采集。扇入就是从多个数据源采集数据然后都发送到一个flume里面,像扇子一样进行不同数据源间数据的整合。扇出就是用一个flume将数据同时发往多个flume,将数据落到不同的地方。
在Flume中通过使用avro接收器配置多个第一层代理来实现,所有代理都指向单个代理的avro源。第二层代理上的这个源将接收到的事件合并到单个通道中,该通道由汇点消耗到其最终目的地。 扇入流动是指多个上游数据源将数据发送到同一个下游代理的模式。 不同的数据源可以不同的Flume代理,也可以是同一个代理的不同Source。 下游代理的Source负责接收和收集来自多个数据源的数据,通过Channel进行缓冲和存储,然后将数据传输到目标系统的Sink。 扇入流动可以用于聚合来自不同数据源的数据,将其合并成一个数据流,进行进一步的处理或存储。
第一个节点配置文件
# a1 表示 Agent 的名称,在启动 Flume 的时候指定
# 创建一个 Source,名叫 r1
a1.sources = r1
# 创建一个 Channel,名叫 c1
a1.channels = c1
# 创建一个 Sink,名叫 k1
a1.sinks = k1
# 指定 a1 的输入源类型为端口类型,也就是数据要通过指定的端口发送
# 这里监听本地的 9999 端口
a1.sources.r1.type = netcat
a1.sources.r1.bind = m1
a1.sources.r1.port = 9999
# 表示 a1 的 Channel 类型是 memory,总容量是 1000 个 Event
# 并且每收集 100 个再去提交事务
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# 表示 a1 的输出是日志类型
a1.sinks.k1.type = avro
a1.sinks.k1.hostname = 192.168.20.103
a1.sinks.k1.port = 9999
# 将 r1 和 k1 绑定到 c1 上,r1 会写入数据到 c1,然后 k1 会从 c1 读数据
a1.sources.r1.channels = c1
# 注意这里的 channel 后面没有 s,因为一个 Sink 能绑定一个 Channel
a1.sinks.k1.channel = c1
第二个节点配置文件
# a1 表示 Agent 的名称,在启动 Flume 的时候指定
# 创建一个 Source,名叫 r1
a1.sources = r1
# 创建一个 Channel,名叫 c1
a1.channels = c1
# 创建一个 Sink,名叫 k1
a1.sinks = k1
# 指定 a1 的输入源类型为端口类型,也就是数据要通过指定的端口发送
# 这里监听本地的 9999 端口
a1.sources.r1.type = netcat
a1.sources.r1.bind = m2
a1.sources.r1.port = 9999
# 表示 a1 的 Channel 类型是 memory,总容量是 1000 个 Event
# 并且每收集 100 个再去提交事务
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# 表示 a1 的输出是日志类型
a1.sinks.k1.type = avro
a1.sinks.k1.hostname = 192.168.20.103
a1.sinks.k1.port = 9999
# 将 r1 和 k1 绑定到 c1 上,r1 会写入数据到 c1,然后 k1 会从 c1 读数据
a1.sources.r1.channels = c1
# 注意这里的 channel 后面没有 s,因为一个 Sink 只绑定一个 Channel
a1.sinks.k1.channel = c1
第三个节点
# a1 表示 Agent 的名称,在启动 Flume 的时候指定
# 创建一个 Source,名叫 r1
a1.sources = r1
# 创建一个 Channel,名叫 c1
a1.channels = c1
# 创建一个 Sink,名叫 k1
a1.sinks = k1
# 指定 a1 的输入源类型为端口类型,也就是数据要通过指定的端口发送
# 这里监听本地的 9999 端口
a1.sources.r1.type = avro
a1.sources.r1.bind = m3
a1.sources.r1.port = 9999
# 表示 a1 的 Channel 类型是 memory,总容量是 1000 个 Event
# 并且每收集 100 个再去提交事务
a1.channels.c1.type = memory
# 表示 a1 的输出是日志类型
a1.sinks.k1.type = logger
# 将 r1 和 k1 绑定到 c1 上,r1 会写入数据到 c1,然后 k1 会从 c1 读数据
a1.sources.r1.channels = c1
# 注意这里的 channel 后面没有 s,因为一个 Sink 只能绑定一个 Channel
a1.sinks.k1.channel = c1
启动flume,先启动m3
flume-ng agent -c $FLUME_HOME/conf -n a1 -f $FLUME_HOME/shanru.conf -Dflume.root.logger=INFO,console
再启动m1,m2
flume-ng agent -c $FLUME_HOME/conf -n a1 -f $FLUME_HOME/shanru.conf -Dflume.root.logger=INFO,console
m1上 nc m1 9999 发送数据h1
m1 上nc m2 9999 发送数据h2
结果,两条数据都显示在了m3的终端上