Flume组成,Put事务,Take事务
Taildir Source
:断点续传、多目录。Flume1.6
以前需要自己自定义Source记录每次读取文件位置,实现断点续传。
File Channel
:数据存储在磁盘,宕机数据可以保存。但是传输速率慢。适合对数据传输可靠性要求高的场景,比如,金融行业。
Memory Channel
:数据存储在内存中,宕机数据丢失。传输速率快。适合对数据传输可靠性要求不高的场景,比如,普通的日志数据。
Kafka Channel
:减少了Flume的Sink阶段,提高了传输效率。
Source到Channel是Put事务
Channel到Sink是Take事务
Flume拦截器
(1)拦截器注意事项
项目中自定义了:ETL拦截器和区分类型拦截器。
采用两个拦截器的优缺点:优点,模块化开发和可移植性;缺点,性能会低一些
(2)自定义拦截器步骤
a)实现 Interceptor
b)重写四个方法
initialize 初始化
public Event intercept(Event event) 处理单个Event
public List intercept(List events) 处理多个Event,在这个方法中调用Event intercept(Event event)
close 方法
c)静态内部类,实现Interceptor.Builder
Flume Channel选择器
Flume监控器
Ganglia
Flume采集数据会丢失吗?(防止数据丢失的机制)
不会,Channel存储可以存储在File中,数据传输自身有事务。
Flume内存
开发中在flume-env.sh
中设置JVM heap
为4G或更高,部署在单独的服务器上(4核8线程16G内存)
-Xmx与-Xms最好设置一致,减少内存抖动带来的性能影响,如果设置不一致容易导致频繁fullgc。
FileChannel优化
通过配置dataDirs
指向多个路径,每个路径对应不同的硬盘,增大Flume
吞吐量。
官方说明如下:
Comma separated list of directories for storing log files. Using multiple directories on separate disks can improve file channel peformance
checkpointDir
和backupCheckpointDir
也尽量配置在不同硬盘对应的目录中,保证checkpoint
坏掉后,可以快速使用backupCheckpointDir
恢复数据
HDFS Sink小文件处理
(1)HDFS存入大量小文件,有什么影响?
元数据层面:每个小文件都有一份元数据,其中包括文件路径,文件名,所有者,所属组,权限,创建时间等,这些信息都保存在Namenode
内存中。所以小文件过多,会占用Namenode
服务器大量内存,影响Namenode
性能和使用寿命
计算层面:默认情况下MR会对每个小文件启用一个Map任务计算,非常影响计算性能。同时也影响磁盘寻址时间。
(2)HDFS小文件处理
官方默认的这三个参数配置写入HDFS
后会产生小文件,hdfs.rollInterval、hdfs.rollSize、hdfs.rollCount
基于以上
hdfs.rollInterval=3600,
hdfs.rollSize=134217728,
hdfs.rollCount =0,
hdfs.roundValue=3600,
hdfs.roundUnit= second
几个参数综合作用,效果如下:
(1)tmp文件在达到128M
时会滚动生成正式文件
(2)tmp文件创建超3600秒
时会滚动生成正式文件
举例:在2018-01-01 05:23的时侯sink接收到数据,那会产生如下tmp文件:
/test/20180101/test.201801010520.tmp
即使文件内容没有达到128M,也会在06:23时滚动生成正式文件