Flume概述

本文详细介绍了Flume的基础架构和快速入门,包括Agent的组成部分:Source、Sink、Channel以及Event。Flume是一个高可用、高可靠的数据采集系统,用于收集、聚合和传输大规模日志数据。文中通过实例展示了如何配置和使用Flume监听端口、监控日志文件变化,并将数据传输到HDFS,涵盖了netcat监听、exec源、HDFS sink等多个场景。
摘要由CSDN通过智能技术生成

Flume 概述

Flume定义

​ Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume 基于流式架构,灵活简单。

Flume最主要的作用就是,实时读取服务器本地磁盘的数据,将数据写入到HDFS。

Flume 基础架构

Agent

​ Agent 是一个 JVM 进程,它以事件的形式将数据从源头送至目的。

​ Agent 主要有 3 个部分组成,Source、Channel、Sink。

Source

​ Source 是负责接收数据到 Flume Agent 的组件。Source 组件可以处理各种类型、各种格式的日志数据,包括 avro、thrift、exec、jms、spooling directorynetcat、sequence generator、syslog、http、legacy。

Slink

​ Sink 不断地轮询 Channel 中的事件且批量地移除它们,并将这些事件批量写入到存储 或索引系统、或者被发送到另一个 Flume Agent。

​ Sink 组件目的地包括 hdfslogger、avro、thrift、ipc、fileHBase、solr、自定 义。

Channel

​ Channel 是位于 Source 和 Sink 之间的缓冲区。因此,Channel 允许 Source 和 Sink 运作在不同的速率上。Channel 是线程安全的,可以同时处理几个 Source 的写入操作和几个 Sink 的读取操作。

​ Flume 自带两种 Channel:Memory ChannelFile Channel 以及 Kafka Channel。

​ Memory Channel 是内存中的队列。Memory Channel 在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么 Memory Channel 就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。

​ File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数 据。

Event

​ 传输单元,Flume 数据传输的基本单元,以 Event 的形式将数据从源头送至目的地。Event 由 HeaderBody 两部分组成,Header 用来存放该 event 的一些属性,为 K-V 结构, Body 用来存放该条数据,形式为字节数组。

Flume 快速入门

安装部署

1) Flume 官网地址

http://flume.apache.org/

2)文档查看地址

http://flume.apache.org/FlumeUserGuide.html

3)下载地址

http://archive.apache.org/dist/flume/

安装部署

1)将 apache-flume-1.9.0-bin.tar.gz 上传到 linux 的/root/download 目录下

2)解压 apache-flume-1.9.0-bin.tar.gz 到/root/app/目录下

3)修改 apache-flume-1.9.0-bin 的名称为 flume

mv apache-flume-1.9.0-bin/ flume

4)将 flume/conf 下的 flume-env.sh.template 文件修改为 flume-env.sh,并配置 flume- env.sh 文件

export JAVA_HOME=/root/app/jdk1.8.0_201

入门案例

监控端口数据官方案例

1)案例需求:

使用 Flume 监听一个端口,收集该端口数据,并打印到控制台。

2ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值