Flume+Kafka+SparkStreaming整合

本文档详细介绍了如何将Flume用于监控文件夹,通过文件流将数据传送到Kafka,再利用SparkStreaming进行处理的流程。包括了Flume的配置、运行命令、SparkStreaming程序的编写及运行后的结果展示。
摘要由CSDN通过智能技术生成

思路分析

flume监控文件夹,通过一个文件流,往文件夹下的文件中写入数据

文件流

创建文件流,去读取文件,运行之后将.class文件上传至集群
(1)scala版本:

import java.io.PrintWriter
import scala.io.Source

object cp {
  def main(args: Array[String]): Unit = {
    val source = Source.fromFile(args(0).toString,"UTF-8")
    val out = new PrintWriter(args(1).toString)
     val in = source.getLines()
    for(line <- in){
     Thread.sleep(500)
      out.println(line)
    }
    out.close()
    source.close()
  }
}

(2)java版本

import java.io.*;
	public class SocketTest {
		public static void main(String[] args) throws IOException, InterruptedException {
			File ctoFile = new File(args[0]);
			File dest=new File(args[1]);

			InputStreamReader rdCto = new InputStreamReader(new FileInputStream(ctoFile));
			OutputStreamWriter writer=new OutputStreamWriter(new FileOutputStr
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值