Flume应用案例之监控一个文件实时采集新增的数据输出到控制台

紧接我的前两篇博客讲下来
分布式日志收集框架Flume环境安装部署
Flume应用案例之从指定网络端口采集数据输出到控制台
阅读这篇博客如有问题,可以先参考阅读我的这两篇博客相关内容
Agent选型:exec source + memory channel + logger sink
在conf目录下创建exec-memory-logger.conf文件

 vi exec-memory-logger.conf

在这个/home/zq/data(根据你自己的来)路径下创建一个data.log文件
配置exec-memory-logger.conf文件如下:
在exec-memory-logger.conf文件中加入以下内容并保存

#Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

#Describe/configure the source
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /home/zq/data/data.log
a1.sources.r1.shell = /bin/sh -c

#Describe the sink
a1.sinks.k1.type = logger

#Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

#Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

启动agent:
先cd进入conf目录
依次执行以下命令

flume-ng agent \
--name a1 \
--conf $FLUME_HOME/conf \
--conf-file $FLUME_HOME/conf/exec-memory-logger.conf \
-Dflume.root.logger=INFO,console

在这里插入图片描述
现在开始测试
新开一个终端,往上面已经创建好的data.log文件里面echo一些内容
效果如下图
在这里插入图片描述

可见这次测试是成功的,控制台有对应的输出显示
这样就实现了监控一个文件实时采集新增的数据并输出到控制台

当然了,在实际生产环境中将大量日志或者其他信息输入到控制台显然不太合理.离线状态下我们可以选择输入到HDFS分布式文件系统,实时的话可以存储到Kafka中,当然还有其他存储系统中去
在这里插入图片描述
以HDFS为例:
这时修改上面的flume配置文件参数,然后开启HDFS服务(详情见我的关于HDFS的相关博客),再测试一下即可
在这里插入图片描述
在这里插入图片描述
详情见flume用户文档
https://flume.apache.org/FlumeUserGuide.html#hdfs-sink

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个Flume配置文件,用于监控输出文件并将数据采集到MySQL的数据表1中。假设数据文件每行包含两个字段,用逗号分隔。 ``` # Define the source, channel, and sink agent.sources = tail-source agent.channels = memory-channel agent.sinks = mysql-sink # Configure the source agent.sources.tail-source.type = exec agent.sources.tail-source.command = tail -F /path/to/output/file agent.sources.tail-source.channels = memory-channel # Configure the channel agent.channels.memory-channel.type = memory agent.channels.memory-channel.capacity = 1000 agent.channels.memory-channel.transactionCapacity = 100 # Configure the sink agent.sinks.mysql-sink.type = org.apache.flume.sink.jdbc.JDBCSink agent.sinks.mysql-sink.driver = com.mysql.jdbc.Driver agent.sinks.mysql-sink.url = jdbc:mysql://localhost:3306/mydatabase agent.sinks.mysql-sink.username = myusername agent.sinks.mysql-sink.password = mypassword agent.sinks.mysql-sink.channel = memory-channel agent.sinks.mysql-sink.batchSize = 100 agent.sinks.mysql-sink.sql = INSERT INTO table1 (field1, field2) VALUES (?, ?) # Map the fields to the sink agent.sinks.mysql-sink.serializer = org.apache.flume.sink.jdbc.sink.JDBCSinkEventSerializer$SimpleJDBCSinkEventSerializer agent.sinks.mysql-sink.serializer.columns = field1, field2 agent.sinks.mysql-sink.serializer.delimiter = , ``` 上面的配置文件使用Flume的exec源来监控输出文件,将数据传输到内存通道中,最后使用了JDBCSink将数据写入到MySQL的数据表1中。请注意,还需要将配置文件中的URL、用户名和密码更改为您自己的数据库连接信息,并根据实际情况调整其他参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值