Spark streaming 整合Kafka统计词频

5 篇文章 0 订阅
3 篇文章 0 订阅

**

Spark streaming 整合Kafka基于(Receiver-based Approach)统计词频

**

首先,启动zookeeper
在这里插入图片描述
然后,启动kafka
在这里插入图片描述
创建topic
在这里插入图片描述
启动生产者
在这里插入图片描述
启动消费者
在这里插入图片描述
开发Spark streaming 整合Kafka统计词频的程序

from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils

'''Spark streaming 整合Kafka统计词频'''

sc = SparkContext(appName="KafkaReceiverWordCount",master="local[2]")
ssc = StreamingContext(sc,5)

kafkastream = KafkaUtils.createStream(ssc=ssc,zkQuorum="hadoop001:2181",topics={'kafka_streaming_topic':1},groupId="test")

counts = kafkastream.map(lambda x:x[1])\
    .flatMap(lambda line:line.split(" "))\
    .map(lambda word:(word,1))\
    .reduceByKey(lambda a,b:a+b)

counts.pprint()

ssc.start()
ssc.awaitTermination()

启动pyspark
在这里插入图片描述
将开发好的代码粘贴到这,开始执行,消费者结果
在这里插入图片描述
查看spark streaming执行结果
在这里插入图片描述
执行成功。

## Spark Streaming整合Kafka基于Direct Approach (No Receivers)统计词频

启动zookeeper,启动生产者,消费者步骤同上,开发spark streaming程序

#!/usr/bin/python
#coding=utf-8

from pyspark import SparkContext
from pyspark.streaming import StreamingContext
from pyspark.streaming.kafka import KafkaUtils

'''Spark Streaming整合Kafka基于Direct Approach (No Receivers)统计词频'''

sc = SparkContext(master="local[2]",appName="KafkaDirectWordCount")
ssc = StreamingContext(sc,10)

topics = ["kafka_streaming_topic"]

kafkaDStream = KafkaUtils.createDirectStream(ssc=ssc,\
                                      topics=topics,\
                                      kafkaParams={"bootstrap.servers":"hadoop001:9092"})

wordCounts = kafkaDStream.map(lambda x: x[1])\
    .flatMap(lambda line: line.split(" "))\
    .map(lambda word: (word,1))\
    .reduceByKey(lambda a,b: a+b)


wordCounts.pprint()

ssc.start()
ssc.awaitTermination()

使用spark-submit提交程序:

./spark-submit \
--master local[2] \
--num-executors 2 \
--executor-memory 1G \
/usr/soft/script/python/KafkaDirectWordCount.py

在生产者中,输入数据进行测试
在这里插入图片描述
查看结果,正是我们想要的
在这里插入图片描述
这是spark streaming 整合kafka的两种方式,在spark1.3之后spark streaming已经支持Direct Approach (No Receivers)的java API与scala API,在spark1.4之后就支持python API。实际生产环境中,大多数情况我们使用的也是Direct Approach (No Receivers)这种方式。

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark Streaming是一个流处理框架,可以处理实时数据流。而Kafka是一个分布式的消息队列系统,可以实现高吞吐量的数据传输。将Spark StreamingKafka整合起来,可以实现高效的实时数据处理。 以下是Spark Streaming整合Kafka的超详细指南: 1. 首先,需要在pom.xml文件中添加KafkaSpark Streaming的依赖。 2. 接着,需要创建一个KafkaProducer,用于向Kafka发送数据。可以使用Kafka的Java API来创建KafkaProducer。 3. 然后,需要创建一个KafkaConsumer,用于从Kafka接收数据。同样可以使用Kafka的Java API来创建KafkaConsumer。 4. 在Spark Streaming中,需要创建一个StreamingContext对象。可以使用SparkConf对象来配置StreamingContext。 5. 接着,需要创建一个DStream对象,用于从Kafka接收数据。可以使用KafkaUtils.createDirectStream()方法来创建DStream对象。 6. 然后,可以对DStream对象进行一系列的转换操作,例如map、filter、reduce等操作,以实现对数据的处理。 7. 最后,需要调用StreamingContext.start()方法来启动StreamingContext,并调用StreamingContext.awaitTermination()方法来等待StreamingContext的终止。 以上就是Spark Streaming整合Kafka的超详细指南。通过以上步骤,可以实现高效的实时数据处理。 ### 回答2: 随着大数据时代的到来,数据量和处理需求越来越庞大,企业需要通过数据分析和挖掘来对业务进行优化和提升。而Apache Spark是一款分布式大数据处理框架,可优化批处理、交互式查询和流处理的数据工作负载。而Kafka是一款高吞吐量的分布式消息队列系统,可应用于日志收集、流处理和实时数据管道等场景。Spark StreamingKafka的共同应用可以实现实时流处理,并可轻松构建实时数据管道。 为了整合Spark StreamingKafka,需要进行几个基本步骤: 1.下载安装Kafka启动Kafka服务。 2.添加Kafka的依赖包到Spark Streaming项目中。通常,引入kafka-clients库就足够了。 3.编写Spark Streaming作业程序,这样就可以从Kafka中拉取数据。 下面是一个详细的Spark Streaming整合Kafka指南: 1.安装Kafka Spark StreamingKafka之间的集成是通过Kafka的高级API来实现的,因此需要在本地安装Kafka并让其运行。具体的安装和设置Kafka的方法在官方文档上都有详细说明。在本文中,我们不会涉及这些步骤。 2.添加Kafka依赖包 在Spark Streaming应用程序中引入Kafka依赖包。要在Scala中访问Kafka,需要在代码中添加以下依赖包: ``` // For Kafka libraryDependencies += "org.apache.kafka" %% "kafka" % "0.10.0.0" ``` 3.编写Spark Streaming作业程序 Spark Streaming提供了对输入的高级抽象,可以在时间间隔内将数据流变成DStream。以下是使用Apache Spark StreamingKafka读取数据的Scala示例: ``` import org.apache.kafka.clients.consumer.ConsumerConfig import org.apache.kafka.common.serialization.StringDeserializer import org.apache.spark.SparkConf import org.apache.spark.streaming.kafka010._ import org.apache.spark.streaming.{Seconds, StreamingContext} object KafkaStreaming { def main(args: Array[String]) { val topics = Array("testTopic") val groupId = "testGroup" val kafkaParams = Map[String, Object]( ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "localhost:9092", ConsumerConfig.GROUP_ID_CONFIG -> groupId, ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.AUTO_OFFSET_RESET_CONFIG -> "earliest", ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG -> (false: java.lang.Boolean) ) val conf = new SparkConf().setAppName("KafkaStreaming").setMaster("local[2]") val ssc = new StreamingContext(conf, Seconds(5)) val messages = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) ) val lines = messages.map(_.value) lines.print() ssc.start() ssc.awaitTermination() } } ``` 该例子会从名为topicName 的Kafka主题上获取消息,并且每隔5秒钟打印一次消息。 4.启动应用程序 在启动应用程序之前,请确保Kafka和Zookeeper正在运行,并且Kafka的主题已被创建。然后使用以下命令启动Spark Streaming作业程序,在本地大力测试: ``` $SPARK_HOME/bin/spark-submit --class com.spark.streaming.KafkaStreaming --master local[2] KafkaStreaming-1.0-SNAPSHOT.jar ``` 总之,通过上面的四个步骤,您将能够将KafkaSpark Streaming集成起来,创建实时流处理的应用程序。这两个工具的结合非常适合实时数据处理,例如实时指标看板或监控模型。就像大多数技术一样,集成两个工具的正确方法通常需要进行扩展和微调。但是,这个指南是一个基础例子,可以帮助您理解两个工具之间的关系,以及一些基本的集成步骤。 ### 回答3: Spark是目前被广泛应用于分布式计算领域的一种强大的工具,而Kafka则是一个高性能的分布式消息队列。对于需要在分布式系统中处理流式数据的应用场景,将SparkKafka整合起来进行处理则是一种非常有效的方式。本文将详细介绍如何使用Spark Streaming整合Kafka进行流式数据处理。 1. 环境准备 首先需要安装好Scala环境、SparkKafka。 2. 创建Spark Streaming应用 接下来,需要创建一个Spark Streaming应用。在创建的过程中,需要指定数据流的输入源以及每个批次的处理逻辑。 ```scala import org.apache.spark.streaming.kafka.KafkaUtils import org.apache.spark.streaming.{StreamingContext, Seconds} object KafkaStream { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("kafka-stream") val ssc = new StreamingContext(conf, Seconds(5)) val topicSet = Set("test") val kafkaParams = Map("metadata.broker.list" -> "localhost:9092") val kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder]( ssc, kafkaParams, topicSet ) kafkaStream.map(_._2).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _).print() ssc.start() ssc.awaitTermination() } } ``` 在上述代码中,我们定义了对`test`主题的数据流进行处理,并使用了`KafkaUtils`工具类对Kafka进行了连接。接着,我们使用了`map`函数将消息内容转换为字符串,并对字符串进行了切分。然后,使用`reduceByKey`函数对字符串中的单词进行统计。最后,我们调用了`print`函数将统计结果输出到控制台中。 3. 运行Spark Streaming应用 到这里,我们已经完成了对Spark Streaming应用的编写。接下来,需要在终端窗口中运行以下命令启动Spark Streaming应用。 ```shell $ spark-submit --class KafkaStream --master local[2] kafka-stream_2.11-0.1.jar ``` 在启动之前需要将kafka-stream_2.11-0.1.jar替换成你的jar包名。 4. 启动Kafka的消息生产者 在应用启动之后,我们还需要启动一个消息生产者模拟向Kafka发送数据。 ```shell $ kafka-console-producer.sh --broker-list localhost:9092 --topic test ``` 在控制台输入一些数据后,我们可以在Spark Streaming应用的控制台输出中看到统计结果。这表明我们已经成功地使用Spark Streaming整合Kafka进行流式数据处理。 总结 本文详细介绍了如何使用Spark Streaming整合Kafka实现流式数据处理。在实际生产环境中,还需要考虑数据的安全性、容错性、扩展性等多种因素。因此,需要对代码进行优化,以便更好地满足实际需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值