Flume+Kafka环境构建和实战


1. 准备工作

apache上下载 apache-flume-1.7.0, apache-kafka_2.12-0.11, apache-zookeeper-3.4.9

下载后分别解压至/home/hadoop/bigdata并重命名目录为flume, kafka, zk, (便于在.bashrc中export各个HOME变量及后续升级)


2. 配置并启动zookeeper

zk配置主要有两个方面

2.1  conf/zoo.cfg

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial 
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between 
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just 
# example sakes.       // 下面这两个目录要提前手工建好
dataDir=/home/hadoop/bigdata/zk/zkdata
dataLogDir=/home/hadoop/bigdata/zk/zkdatalog     

server.1=master:2888:3888
server.2=ndh-slave01:2888:3888
server.3=slave02:2888:3888

# the port at which the clients will connect
clientPort=2181


2.2  zkdata/myid

这里面主要保存与conf/zoo.cfg中server.N对应的数N,如master主机上是server.1, myid中即写1,其它两台机器同理。


2.3  启动并验证zk

把zookeeper目录及刚修改的配置文件一并拷贝到另两台slave机器上,并分别执行下面两个命令,以确保正常启动。

./zkServer.sh start

./zkServer.sh status

如遇到./zkServer.sh status报错问题,通常都是配置和操作的问题,请参考先前文章:http://blog.csdn.net/wqhlmark64/article/details/73250662。


3. flume配置和启动

Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

简要来说,其设计目标和优势如下:

(1) 可靠性
当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。
(2) 可扩展性
Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。
(3) 可管理性
所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。
(4) 功能可扩展性
用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(file,HDFS等)。

很明显,使用flume,主要就是确定好数据源和目标接收地,以及flume agent相关的source, channel, sink.


3.1  常用配置模式
主要修改flume/ conf/flume-conf.properties文件。安装包中默认的文件名有后缀.template,要copy一份并重命名为flume-conf.properties。

3.1.1 监控特定文件
//声明名字为agent的Agent的source, sink, channel
agent.sources=s1
agent.sinks=k1
agent.channels=c1

// 定义各source,sink,channel的属性
agent.sources.s1.type=exec
agent.sources.s1.command = tail -f -n+1 /home/hadoop/bigdata/spark/logs/spark-hadoop-org.apache.spark.deploy.master.Master-1-master.out  // 这里取了spark的任务日志文件
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值