Spark Streaming整合Kafka

指导
第一步先要添加依赖

groupId = org.apache.spark
artifactId = spark-streaming-kafka-0-8_2.12
version = 2.4.5

1.Receiver-based方法

编写Spark Streaming项目代码

def main(args: Array[String]): Unit = {
    //新建一个SparkConf 将Master和AppName设置进去
    val conf: SparkConf = new SparkConf()
   		.setAppName("FlumePush")
   		.setMaster("local[2]")
   	//新建一个StreamingContext,第一个参数是上面定义的SparkConf 
	//第二个参数是个Seconds类型,表示多久进行一次批处理
    val ssc = new StreamingContext(conf, Seconds(4))
	
	//这边定义了zookeeper端口地址,组名,topic名和线程数量
    val zkAddr = "192.168.0.133:2181"
    val group = "test"
    val topics = "project"
    val numThread = 1
	
	//这边创建了一个map,将所有topic丢进去,key是topic名,value是线程数量
    val map: Map[String, Int] = topics.split(",").map((_, numThread)).toMap
    //通过KafkaUtils.createStream创建数据流
    //这里4个参数分别是StreamingContext,zookeeper端口地址,组名,上面创建的map
    val messages: ReceiverInputDStream[(String, String)] = KafkaUtils.createStream(ssc, zkAddr, group, map)
    //我们需要先通过一个map拿到第二个有用信息再进行wc操作
    val value: DStream[(String, Int)] = messages.map(_._2).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _)
    //打印
    value.print()

    ssc.start()
    ssc.awaitTermination()
  }

我们先开启kafka,在开启Spark Streaming项目进行测试
往producer端生产数据
在这里插入图片描述
然后查看控制台:
在这里插入图片描述

2.Direct方法

编写Spark Streaming项目代码

def main(args: Array[String]): Unit = {
    //新建一个SparkConf 将Master和AppName设置进去
    val conf: SparkConf = new SparkConf()
   		.setAppName("FlumePush")
   		.setMaster("local[2]")
   	//新建一个StreamingContext,第一个参数是上面定义的SparkConf 
	//第二个参数是个Seconds类型,表示多久进行一次批处理
    val ssc = new StreamingContext(conf, Seconds(4))

	//这边定义了brokers端口地址和topics名
    val brokers = "localhost:9092"
    val topics = "project"
    
    //创建一个map存放信息,这边只要将brokers端口地址放进去就行了
    val map = Map[String,String]("metadata.broker.list"->brokers)
    //创建一个set存放topic名
    val set: Set[String] = topics.split(",").toSet
    
    //通过KafkaUtils.createDirectStream创建数据流
    //要定义4个泛型分别是key类型,value类型,keyDecoder类型,valueDecoder类型
    //有3个参数分别是StreamingContext,上面定义用于存放信息的map,用于存放topic的set
    val messages: InputDStream[(String, String)] = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, map, set)
    //我们需要先通过一个map拿到第二个有用信息再进行wc操作
    messages.map(_._2).flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
    	//打印
    	.print()

    ssc.start()
    ssc.awaitTermination()
  }

我们先开启kafka,在开启Spark Streaming项目进行测试
往producer端生产数据
在这里插入图片描述
然后查看控制台:
在这里插入图片描述

3.Kafka0.10版本Direct方法

def main(args: Array[String]): Unit = {
      //新建一个SparkConf 将Master和AppName设置进去
      val conf: SparkConf = new SparkConf()
        .setAppName("StreamingApp")
        .setMaster("local[2]")
      //新建一个StreamingContext,第一个参数是上面定义的SparkConf
      //第二个参数是个Seconds类型,表示多久进行一次批处理
      val ssc = new StreamingContext(conf, Seconds(4))

		//设置一个map存放kafka参数
      val kafkaParams = Map[String, Object](
      	//broker端口地址
        "bootstrap.servers" -> "localhost:9092",
        //key和value的反序列化
        "key.deserializer" -> classOf[StringDeserializer],
        "value.deserializer" -> classOf[StringDeserializer],
        //设置组id
        "group.id" -> "1",
        //自动偏移量设置
        "auto.offset.reset" -> "latest",
        //是否自动提交
        "enable.auto.commit" -> (false: java.lang.Boolean)
      )
      //使用KafkaUtils.createDirectStream创建数据流,第一个参数StreamingContext
      val stream: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream(ssc,
      	  //第二个参数Location策略
      	  LocationStrategies.PreferConsistent,
      	  //第三个参数消费者策略,泛型是key和value的类型
      	  //这里还有2个参数分别是装有topic名的array,上面定义的map类型的kafka参数
       	  ConsumerStrategies.Subscribe[String, String]("test".split(","), kafkaParams))
      //打印value
      stream.map(x=>x.value()).print()
      ssc.start()
      ssc.awaitTermination()
    }

运行,命令行启动生产者生存数据
在这里插入图片描述
查看控制台:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark Streaming是一个流处理框架,可以处理实时数据流。而Kafka是一个分布式的消息队列系统,可以实现高吞吐量的数据传输。将Spark StreamingKafka整合起来,可以实现高效的实时数据处理。 以下是Spark Streaming整合Kafka的超详细指南: 1. 首先,需要在pom.xml文件中添加KafkaSpark Streaming的依赖。 2. 接着,需要创建一个KafkaProducer,用于向Kafka发送数据。可以使用Kafka的Java API来创建KafkaProducer。 3. 然后,需要创建一个KafkaConsumer,用于从Kafka接收数据。同样可以使用Kafka的Java API来创建KafkaConsumer。 4. 在Spark Streaming中,需要创建一个StreamingContext对象。可以使用SparkConf对象来配置StreamingContext。 5. 接着,需要创建一个DStream对象,用于从Kafka接收数据。可以使用KafkaUtils.createDirectStream()方法来创建DStream对象。 6. 然后,可以对DStream对象进行一系列的转换操作,例如map、filter、reduce等操作,以实现对数据的处理。 7. 最后,需要调用StreamingContext.start()方法来启动StreamingContext,并调用StreamingContext.awaitTermination()方法来等待StreamingContext的终止。 以上就是Spark Streaming整合Kafka的超详细指南。通过以上步骤,可以实现高效的实时数据处理。 ### 回答2: 随着大数据时代的到来,数据量和处理需求越来越庞大,企业需要通过数据分析和挖掘来对业务进行优化和提升。而Apache Spark是一款分布式大数据处理框架,可优化批处理、交互式查询和流处理的数据工作负载。而Kafka是一款高吞吐量的分布式消息队列系统,可应用于日志收集、流处理和实时数据管道等场景。Spark StreamingKafka的共同应用可以实现实时流处理,并可轻松构建实时数据管道。 为了整合Spark StreamingKafka,需要进行几个基本步骤: 1.下载安装Kafka并启动Kafka服务。 2.添加Kafka的依赖包到Spark Streaming项目中。通常,引入kafka-clients库就足够了。 3.编写Spark Streaming作业程序,这样就可以从Kafka中拉取数据。 下面是一个详细的Spark Streaming整合Kafka指南: 1.安装Kafka Spark StreamingKafka之间的集成是通过Kafka的高级API来实现的,因此需要在本地安装Kafka并让其运行。具体的安装和设置Kafka的方法在官方文档上都有详细说明。在本文中,我们不会涉及这些步骤。 2.添加Kafka依赖包 在Spark Streaming应用程序中引入Kafka依赖包。要在Scala中访问Kafka,需要在代码中添加以下依赖包: ``` // For Kafka libraryDependencies += "org.apache.kafka" %% "kafka" % "0.10.0.0" ``` 3.编写Spark Streaming作业程序 Spark Streaming提供了对输入的高级抽象,可以在时间间隔内将数据流变成DStream。以下是使用Apache Spark StreamingKafka读取数据的Scala示例: ``` import org.apache.kafka.clients.consumer.ConsumerConfig import org.apache.kafka.common.serialization.StringDeserializer import org.apache.spark.SparkConf import org.apache.spark.streaming.kafka010._ import org.apache.spark.streaming.{Seconds, StreamingContext} object KafkaStreaming { def main(args: Array[String]) { val topics = Array("testTopic") val groupId = "testGroup" val kafkaParams = Map[String, Object]( ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "localhost:9092", ConsumerConfig.GROUP_ID_CONFIG -> groupId, ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.AUTO_OFFSET_RESET_CONFIG -> "earliest", ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG -> (false: java.lang.Boolean) ) val conf = new SparkConf().setAppName("KafkaStreaming").setMaster("local[2]") val ssc = new StreamingContext(conf, Seconds(5)) val messages = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) ) val lines = messages.map(_.value) lines.print() ssc.start() ssc.awaitTermination() } } ``` 该例子会从名为topicName 的Kafka主题上获取消息,并且每隔5秒钟打印一次消息。 4.启动应用程序 在启动应用程序之前,请确保Kafka和Zookeeper正在运行,并且Kafka的主题已被创建。然后使用以下命令启动Spark Streaming作业程序,在本地大力测试: ``` $SPARK_HOME/bin/spark-submit --class com.spark.streaming.KafkaStreaming --master local[2] KafkaStreaming-1.0-SNAPSHOT.jar ``` 总之,通过上面的四个步骤,您将能够将KafkaSpark Streaming集成起来,创建实时流处理的应用程序。这两个工具的结合非常适合实时数据处理,例如实时指标看板或监控模型。就像大多数技术一样,集成两个工具的正确方法通常需要进行扩展和微调。但是,这个指南是一个基础例子,可以帮助您理解两个工具之间的关系,以及一些基本的集成步骤。 ### 回答3: Spark是目前被广泛应用于分布式计算领域的一种强大的工具,而Kafka则是一个高性能的分布式消息队列。对于需要在分布式系统中处理流式数据的应用场景,将SparkKafka整合起来进行处理则是一种非常有效的方式。本文将详细介绍如何使用Spark Streaming整合Kafka进行流式数据处理。 1. 环境准备 首先需要安装好Scala环境、SparkKafka。 2. 创建Spark Streaming应用 接下来,需要创建一个Spark Streaming应用。在创建的过程中,需要指定数据流的输入源以及每个批次的处理逻辑。 ```scala import org.apache.spark.streaming.kafka.KafkaUtils import org.apache.spark.streaming.{StreamingContext, Seconds} object KafkaStream { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("kafka-stream") val ssc = new StreamingContext(conf, Seconds(5)) val topicSet = Set("test") val kafkaParams = Map("metadata.broker.list" -> "localhost:9092") val kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder]( ssc, kafkaParams, topicSet ) kafkaStream.map(_._2).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _).print() ssc.start() ssc.awaitTermination() } } ``` 在上述代码中,我们定义了对`test`主题的数据流进行处理,并使用了`KafkaUtils`工具类对Kafka进行了连接。接着,我们使用了`map`函数将消息内容转换为字符串,并对字符串进行了切分。然后,使用`reduceByKey`函数对字符串中的单词进行了统计。最后,我们调用了`print`函数将统计结果输出到控制台中。 3. 运行Spark Streaming应用 到这里,我们已经完成了对Spark Streaming应用的编写。接下来,需要在终端窗口中运行以下命令启动Spark Streaming应用。 ```shell $ spark-submit --class KafkaStream --master local[2] kafka-stream_2.11-0.1.jar ``` 在启动之前需要将kafka-stream_2.11-0.1.jar替换成你的jar包名。 4. 启动Kafka的消息生产者 在应用启动之后,我们还需要启动一个消息生产者模拟向Kafka发送数据。 ```shell $ kafka-console-producer.sh --broker-list localhost:9092 --topic test ``` 在控制台输入一些数据后,我们可以在Spark Streaming应用的控制台输出中看到统计结果。这表明我们已经成功地使用Spark Streaming整合Kafka进行流式数据处理。 总结 本文详细介绍了如何使用Spark Streaming整合Kafka实现流式数据处理。在实际生产环境中,还需要考虑数据的安全性、容错性、扩展性等多种因素。因此,需要对代码进行优化,以便更好地满足实际需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值