Flume将日志log文件从本地导入kafka,再从kafka导入HDFS--使用kafka作为channel

本文介绍了如何整合前两篇博客,利用Flume将日志从本地通过Kafka传输到HDFS。文章强调了在配置文件中使用Kafka作为Channel时的注意事项,如filePrefix和fileSuffix的正确设置,并提供了启动Flume和相关服务的顺序。同时提醒读者在测试时只需使用配置文件的部分内容,并提到作者会不定期查看评论以提供帮助。
摘要由CSDN通过智能技术生成

作为前面两篇文章的整合,并使用kafka作为channel:

1、Flume将日志log文件从本地导入kafka,再从kafka导入HDFS。地址:

https://blog.csdn.net/m0_37890482/article/details/81126522#0-qzone-1-10214-d020d2d2a4e8d1a374a433f596ad1440

2、Flume根据文件中每行开始的日期进行文件夹分类导入HDFS。地址:

https://blog.csdn.net/m0_37890482/article/details/81130616#0-qzone-1-32278-d020d2d2a4e8d1a374a433f596ad1440

的补充,之前是使用memory作为channel,现改用kafka作为channel。配置文件都默认存放在 /etc/flume-ng/conf下

直接看配置文件:kafka-in.conf   (这里是从本地获取日志的配置文件,实际上可以不写sink部分,sink写到kafka-out.conf)

#--------文件从本地路径到kafka-in配置文件------#
#--------------Edit by cheengvho-------------#

# 指定Agent的组件名称
agent1.sources
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值