-
本文的主要目的就是为了实现以下需求:
-
通过flume收集日志;
-
将收集到的日志分发给kafka;
-
通过sparksteaming对kafka获取的日志进行处理;
-
然后将处理的结果存储到hdfs的指定目录下。
- Flume连通Kafka配置
a1.sources = r1 a1.channels = c1 a1.sinks =s1
#sources端配置 a1.sources.r1.type=exec |
a1.sources = r1 a1.channels = c1 a1.sinks =s1
#sources端配置 a1.sources.r1.type=exec |