Flume源代码解读三

  [ xcly原创于iteye,见http://xcly.iteye.com ]

 

 本节重点介绍 agentSink中ENDTOEND的实现。 

 

 每一个节点通过source获得事件Event,然后由sink处理,sink同source一样,flume提供了多种实现,sink的生成同Flume源代码解读一中介绍的实现方式类似,由SinkFactory工厂方法实现,跟SourceFactory不一样的是定义了取得SinkDecoBuilder的抽象方法,在SinkFactoryImpl中不止通过name可以获得EventSink,也可以获得EventSinkDecorator,关键点是EventSinkDecorator也是EventSink.Base的子类。这种装饰器模式的实现方式給事件的处理方式提供了类似于管道流的一种实现,我们可以将任意EventSinkDecorator串成一个管道,用来对事件进行加工和处理。

 

  我们看ENDTOEND的实现,就是一串ackedWriteAhead => { stubbornAppend =>  { insistentOpen =>rpcSink,由FlumeBuilder的buildSink实现。 这里使用了强大的语言识别工具Antlr, 具体实现细节还有待深究。 

下次补上。 

 

 ackedWriteAhead 对应的实现类是NaiveFileWALDec, NaiveFileWALDeco是一个非常重要的类, 它里面有两套数据流机制, 一套是RollSink开始的将数据不断写入本地硬盘的数据流,当数据写入本地硬盘后,通过DirectDriver的一个线程不断循环从写好的硬盘数据中获取数据发送至collector,如果写成功,再删除硬盘上的数据。 

 

   NaiveFileWALDec的build中申明了几个关键的类是从FlumeNode实例中取得的,NaiveFileWALManager负责数据的持久化,当再次尝试发生时,也读取数据,最初数据都是写入writing目录。  WALAckManager和它之中的PendingAckQueuer, WALAckManager负责act check,并且调用PendingAckQueuer作为结束数据append的动作。  即PendingAckQueuer的end方法。 

 

   RollSink的newSink见NaiveFileWALManager的newAckWritingSink方法,AckChecksumInjector嵌套SeqfileEventSink, AckChecksumInjector在event中添加tag/checksum和时间作为校验和,并且对消息body使用了hash算法。 而 SeqfileEventSink主要负责将数据流写入本地文件系统。 

 

 

 

 

 

 

 

 

 

 

 

  未完待续 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是使用Spark Streaming接收Flume数据的代码实现: 1. 首先,需要在pom.xml文件中添加以下依赖: ```xml <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming-flume_2.11</artifactId> <version>2.4.4</version> </dependency> ``` 2. 接着,在Spark Streaming应用程序中,创建一个Flume事件流,并将其与对应的Flume Agent进行连接: ```scala import org.apache.spark.streaming.StreamingContext import org.apache.spark.streaming.flume._ val ssc = new StreamingContext(sparkConf, Seconds(1)) val flumeStream = FlumeUtils.createStream(ssc, hostname, port) ``` 其中,hostname和port分别是Flume Agent的主机名和端口号。 3. 使用DStream的transform方法对接收到的数据进行处理: ```scala val events = flumeStream.map(event => new String(event.event.getBody.array())) val words = events.flatMap(_.split(" ")) val wordCounts = words.map(word => (word, 1)).reduceByKey(_ + _) ``` 4. 最后,使用DStream的print方法输出结果: ```scala wordCounts.print() ``` 完整代码示例: ```scala import org.apache.spark.streaming.{Seconds, StreamingContext} import org.apache.spark.streaming.flume._ val ssc = new StreamingContext(sparkConf, Seconds(1)) val flumeStream = FlumeUtils.createStream(ssc, hostname, port) val events = flumeStream.map(event => new String(event.event.getBody.array())) val words = events.flatMap(_.split(" ")) val wordCounts = words.map(word => (word, 1)).reduceByKey(_ + _) wordCounts.print() ssc.start() ssc.awaitTermination() ``` 注意:在实际应用中,需要根据实际情况设置合适的批处理间隔时间和Flume Agent的配置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值