作为前面两篇文章的整合,并使用kafka作为channel:
1、Flume将日志log文件从本地导入kafka,再从kafka导入HDFS。地址:
2、Flume根据文件中每行开始的日期进行文件夹分类导入HDFS。地址:
的补充,之前是使用memory作为channel,现改用kafka作为channel。配置文件都默认存放在 /etc/flume-ng/conf下
直接看配置文件:kafka-in.conf (这里是从本地获取日志的配置文件,实际上可以不写sink部分,sink写到kafka-out.conf)
#--------文件从本地路径到kafka-in配置文件------#
#--------------Edit by cheengvho-------------#
# 指定Agent的组件名称
agent1.sources