flume的概念和基本使用

原创 2017年01月02日 23:36:56

一、flume概述

    flume是一个分布式的、可靠的、可用的以及高效的对大量数据日志进行收集、聚集、移动信息的服务。flume是一个可容错的、健壮的并且非常简单的流式数据框架,他只需要简单配置source、channel以及sink后,编写一条命令就可实时采集数据。
    agent的三个组成部分为:source、channel和sink。
    source:用于采集数据,source是产生数据流的地方,同时,source会将产生的数据传输到channel上。
    channel:连接source和sink,类似队列
    sink:从channel收集数据,将数据写到目标源,可以是下一个flume的source,或者是hdfs或者hbase等。

二、flume使用版本

        笔者使用的hadoop版本是cdh-5.3.6,所以选择的flume对应版本是flume-ng-1.5.0-cdh.5.3.6,这里简单介绍下,flume大的版本可以分为flume-og和flume-ng,其中og中的o笔者以前以为是old的意思,但是看了官方介绍是orginal的意思,ng的n也不是new 的意思,而是next(下一代)的意思,两个版本的差别还是比较大的。其中0.9x版本以前是flume-og,1.x以后的版本是flume-ng。

三、flume-nge的使用

  1. 基本使用:

    基本使用就是简单的从source读消息到sink
    flume基本使用的简单架构如下:
    

    这里写图片描述

场景1:从本地文件到本地文件

  source:hive.log (某个日志文件)
  channel:mem(内存通道)
  sink:log(另一个日志文件)

  配置文件:

这里写图片描述

  运行后:

这里写图片描述

场景2:从本地文件到本地文件,使用file channel

source:hive.log (某个日志文件)
channel:filechannel
sink:log(另一个日志文件)

配置文件:

这里写图片描述

运行:

这里写图片描述

场景3:从本地文件到hdfs

source:hive.log (某个日志文件)
channel:mem(内存通道)
sink:hdfs
同时,需要把hadoop下面的commons-configuration-1.6.jar、hadoop-auth-2.5.0-cdh5.3.6.jar、hadoop-common-2.5.0-cdh5.3.6.jar和hadoop-hdfs-2.5.0-cdh5.3.6.jar拷贝到flume_home\lib下面
配置文件:

这里写图片描述

运行结果不再赘述。

四、flume在企业中使用的一些问题和思考

1.flume向hdfs传输数据时,有可能产生很多小的文件,这在企业中肯定是不行的,hdfs要求存储文件越大越好,至少是128M,如何设置flume中hdfs的sink?

2.使用flume把数据导入hive表中,如果hive使用的是分区表,比如按照年、月、日分区,那么如何把每天的数据导入到对应的日期目录下,此时如何配置flume中的hdfs的sink?

3.如何在指定的文件夹过滤掉一些不需要的文件,例如以xxx开头或者.xxx结尾的文件?

解决上述几个问题就需要了解sink的一些其他配置,
1) 在sink中,通过sourceName.sinks.sinkName.hdfs.rollSize可以设定输出文件的最大大小,例如我们可以设置10k,那么配置就是:
sourceName.sinks.sinkName.hdfs.rollSize=102400

2)在sink中,可以通过系统时间来进行动态文件夹的生成,例如我们期望按照每小时来分区,那么分区目录是:
2014-10-12/01
          /02
          ...
          /24
该需求可以通过sourceName.sinks.sinkName.path参数来配置,那么上面需求的配置就是:
sourceName.sinks.sinkName.path=/flume/events/%y-%m-%d/%H

(注意:,其中1和2会有冲突,例如我们设置文件大小为128M,但是我们分区时按照分钟来分区,那么有可能1分钟的数据没有128M,那么文件大小肯定不会是128M)

3)如果期望过滤掉指定文件名的文件,那需要通过配置source中的sourceName.sinks.sinkName.ignorePattern来设置,如果期望过滤掉.tmp结尾的文件,那么配置如下:
sourceName.sinks.sinkName.ignorePattern=([^]*\.tmp)

那么最终的flume的配置文件如下:

这里写图片描述

flume的基本使用就介绍到这里。
版权声明:本文为博主原创文章,未经博主允许不得转载。 举报

相关文章推荐

Flume的基本概念

一:Flume介绍 1.1、在hadoop生态圈中,Flume的位置。 1.2、Flume是什么?     有Cloudera公司开源     分布式、可靠、高可用的海量日志采集系统 ...

Flume基本使用

Flume的核心组件为source、channle、sink:组件描述source可以对接数据源,可以是mysql、file、tcp等 channle为数据传输通道,可指定为内存、文件等 sink...

我是如何成为一名python大咖的?

人生苦短,都说必须python,那么我分享下我是如何从小白成为Python资深开发者的吧。2014年我大学刚毕业..

flume (日志收集系统) 基础概念

Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
  • ronmy
  • ronmy
  • 2017-03-05 14:45
  • 785

Flume+Hadoop+Hive的离线分析系统基本架构

最近在学习大数据的离线分析技术,所以在这里通过做一个简单的网站点击流数据分析离线系统来和大家一起梳理一下离线分析系统的架构模型。当然这个架构模型只能是离线分析技术的一个简单的入门级架构,实际生产环境中...

Flume+Kafka+Storm+Redis实时分析系统基本架构

天作者要在这里通过一个简单的电商网站订单实时分析系统和大家一起梳理一下大数据环境下的实时分析系统的架构模型。当然这个架构模型只是实时分析技术的一 个简单的入门级架构,实际生产环境中的大数据实时分析技术...

Flume基本配置

这种模式,有两种方式,一种是用来复制(Replication),另一种是用来分流(Multiplexing)。Replication方式,可以将最前端的数据源复制多份,分别传递到多个channel中,...

第十二章 异常处理 概念和基本使用

1.为什么要有异常处理 Java的基本理念是结构不佳的代码不能运行。why:发现错误的理想时机是在编译阶段,余下的问题在运行期间解决,这就需要错误源能通过某种方式,把适当的信息传递给某个接受者【...
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)