Flume是一个高可用的、高可靠的、分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
flume安装
下载地址:http://mirror.bit.edu.cn/apache/flume/
1、解压:
[root@master ~]# cd /soft/
[root@master soft]# tar -xzvf apache-flume-1.8.0-bin.tar.gz
2、创建软链接:
[root@master soft]# ln -s apache-flume-1.8.0-bin /soft/flume
3、配置Flume文件
(1)flume-env.sh文件
[root@master soft]# cd flume/conf/
[root@master conf]# cp flume-env.sh.template flume-env.sh
[root@master conf]# vi flume-env.sh
修改JAVA_HOME为自己jdk路径
修改前:# export JAVA_HOME=/usr/lib/jvm/java-8-oracle
修改后:export JAVA_HOME=/soft/jdk
(2)slave.conf文件
[root@master conf]# touch slave.conf #创建
[root@master conf]# vi slave.conf #编辑
写入如下内容:
# 主要作用是监听目录中的新增数据,采集到数据之后,输出到avro (输出到agent)
# 注意:Flume agent的运行,主要就是配置source channel sink
# 下面的a1就是agent的代号,source叫r1 channel叫c1 sink叫k1
a1.sources = r1
a1.sinks = k1
a1.channels = c1
#具体定义source
a1.sources.r1.type = spooldir
#先创建此目录,保证里面空的
a1.sources.r1.spoolDir = /soft/flume/logs
#对于sink的配置描述 使用avro日志做数据的消费
a1.sinks.k1.type = avro
# hostname是最终传给的主机名称或者ip地址
a1.sinks.k1.hostname = master
a1.sinks.k1.port = 44444
#对于channel的配置描述 使用文件做数据的临时缓存 这种的安全性要高
a1.channels.c1.type = file
a1.channels.c1.checkpointDir = /soft/flume/checkpointdir
a1.channels.c1.dataDirs = /soft/flume/data
#通过channel c1将source r1和sink k1关联起来
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
4、创建文件目录
[root@master conf]# cd /soft/flume/
[root@master flume]# mkdir logs
[root@master flume]# mkdir checkpointdir
[root@master flume]# mkdir data
5、配置环境变量
[root@master flume]# vi /etc/profile
添加如下配置:
export FLUME_HOME=/soft/flume
export PATH=$PATH:$FLUME_HOME/bin
[root@master flume]# source /etc/profile #生效
6、将Flume发送到其他主机
[root@master soft]# scp -r flume/ root@slave1:/soft/
[root@master soft]# scp -r flume/ root@slave2:/soft/
7、修改master中的flume的配置
在master的flume的conf文件夹下创建一个master.conf文件
[root@master soft]# cd /soft/flume/conf/
[root@master conf]# touch master.conf
[root@master conf]# vi master.conf
添加如下配置:
# 获取slave1,2上的数据,聚合起来,传到hdfs上面
# 注意:Flume agent的运行,主要就是配置source channel sink
# 下面的a1就是agent的代号,source叫r1 channel叫c1 sink叫k1
a1.sources = r1
a1.sinks = k1
a1.channels = c1
#对于source的配置描述 监听avro
a1.sources.r1.type = avro
# hostname是最终传给的主机名称或者ip地址
a1.sources.r1.bind = master
a1.sources.r1.port = 44444
#定义拦截器,为消息添加时间戳
a1.sources.r1.interceptors = i1
a1.sources.r1.interceptors.i1.type = org.apache.flume.interceptor.TimestampInterceptor$Builder
#对于sink的配置描述 传递到hdfs上面
a1.sinks.k1.type = hdfs
#集群的nameservers名字
#单节点的直接写:hdfs://主机名(ip):9000/xxx
a1.sinks.k1.hdfs.path = hdfs://192.168.110.11/flume/%Y%m%d
a1.sinks.k1.hdfs.filePrefix = events-
a1.sinks.k1.hdfs.fileType = DataStream
#不按照条数生成文件
a1.sinks.k1.hdfs.rollCount = 0
#HDFS上的文件达到128M时生成一个文件
a1.sinks.k1.hdfs.rollSize = 134217728
#HDFS上的文件达到60秒生成一个文件
a1.sinks.k1.hdfs.rollInterval = 60
#对于channel的配置描述 使用内存缓冲区域做数据的临时缓存
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
#通过channel c1将source r1和sink k1关联起来
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
8、为其他主机(slave1、slave2)添加环境变量
同步骤5
9、启动
首先启动Zookeeper和hadoop集群(关于hadoop、zooker集群搭建与启动见前文)
仅在master端:
[root@master ~]# start-all.sh #启动hadoop集群
所有集群都启动:
[root@master ~]# cd /soft/zookeeper/bin #进入zookeeper bin 目录
[root@master bin]# ./zkServer.sh start #启动zookeeper
启动flume集群(需要先进入flume安装目录)
[root@master ~]# cd /soft/flume/#
在master启动
[root@master flume]# bin/flume-ng agent -n a1 -c conf -f conf/master.conf -Dflume.root.logger=INFO,console
# 在slave1启动
[root@slave1 flume]# bin/flume-ng agent -n a1 -c conf -f conf/slave.conf -Dflume.root.logger=INFO,console
# 在slave2启动
[root@slave2 flume]# bin/flume-ng agent -n a1 -c conf -f conf/slave.conf -Dflume.root.logger=INFO,console
#启动参数说明 :
-c conf 指定配置目录为conf
-f conf/master.conf 指定配置文件为conf/master.conf
-n a1 指定agent名字为a1,需要与master.conf 中的一致
-Dflume.root.logger=INFO,console 指定DEBUF模式在console输出INFO信息
启动如图:
10、网页验证:http://192.168.110.11:50070/
点击Utilit选择Browse the file System
会出现flume目录