Flume 学习笔记(二)Flume复制多发案例 | 配置多个Channel对于相对不同的单个Sink | 将本地日志文件内容采集到HDFS和另一个本地位置

这篇博客介绍了如何使用Flume将本地日志文件复制到HDFS和另一个本地位置。内容包括Flume的Memory Channel和Avro Source的概念,以及配置Flume Agent的步骤,最后通过启动三个Agent并验证测试结果来确保数据成功传输。
摘要由CSDN通过智能技术生成

若发现文章有误,敬请指教,感谢

运行环境


  • JDK8
  • Hadoop3.3.0 单节点亦可
  • Flume1.9
  • CentOS7

一、参考资料


视频链接
Flume官方文档

二、案例介绍&准备知识


Flume官方的架构图:
在这里插入图片描述

flume本质上就是一个Agent,通过Source(数据源)、Channel(缓冲管道)、Sink(输出源)这么一套工序,将数据从一个地方移动到另一个地方,那么本次案例则通过这样的思想,实现多个Agent的通信,最终将数据从log日志文件分流到HDFS和另一个本地文件位置。(注:这里暂未涉及拦截器)
案例结构图:
在这里插入图片描述
以下内容将用 $FLUME_HOME 代指flume的根目录

2.1 Flume Memory Chennel

官方说明

  • 在Flume里什么是Chennel ?

Channels are the repositories where the events are staged on a agent. Source adds the events and Sink removes it.
译:Channels 是在Agent存储的事件,Source添加事件,Sink删除事件,言简意赅就是缓冲通道

  • 在Flume里什么是Memory Chennel ?

The events are stored in an in-memory queue with configurable max size. It’s ideal for flows th

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值