Spark Streaming 整合 Kafka

一、版本说明

Spark 针对 Kafka 的不同版本,提供了两套整合方案:spark-streaming-kafka-0-8spark-streaming-kafka-0-10,其主要区别如下:

spark-streaming-kafka-0-8spark-streaming-kafka-0-10
Kafka 版本0.8.2.1 or higher0.10.0 or higher
AP 状态Deprecated
从 Spark 2.3.0 版本开始,Kafka 0.8 支持已被弃用
Stable(稳定版)
语言支持Scala, Java, PythonScala, Java
Receiver DStreamYesNo
Direct DStreamYesYes
SSL / TLS SupportNoYes
Offset Commit API(偏移量提交)NoYes
Dynamic Topic Subscription
(动态主题订阅)
NoYes

本文使用的 Kafka 版本为 kafka_2.12-2.2.0,故采用第二种方式进行整合。

二、项目依赖

项目采用 Maven 进行构建,主要依赖如下:

<properties>
    <scala.version>2.12</scala.version>
</properties>

<dependencies>
    <!-- Spark Streaming-->
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-streaming_${scala.version}</artifactId>
        <version>${spark.version}</version>
    </dependency>
    <!-- Spark Streaming 整合 Kafka 依赖-->
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-streaming-kafka-0-10_${scala.version}</artifactId>
        <version>2.4.3</version>
    </dependency>
</dependencies>

三、整合Kafka

通过调用 KafkaUtils 对象的 createDirectStream 方法来创建输入流,完整代码如下:

import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.SparkConf
import org.apache.spark.streaming.kafka010.ConsumerStrategies.Subscribe
import org.apache.spark.streaming.kafka010.LocationStrategies.PreferConsistent
import org.apache.spark.streaming.kafka010._
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
  * spark streaming 整合 kafka
  */
object KafkaDirectStream {

  def main(args: Array[String]): Unit = {

    val sparkConf = new SparkConf().setAppName("KafkaDirectStream").setMaster("local[2]")
    val streamingContext = new StreamingContext(sparkConf, Seconds(5))

    val kafkaParams = Map[String, Object](
      /*
       * 指定 broker 的地址清单,清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查找其他 broker 的信息。
       * 不过建议至少提供两个 broker 的信息作为容错。
       */
      "bootstrap.servers" -> "hadoop001:9092",
      /*键的序列化器*/
      "key.deserializer" -> classOf[StringDeserializer],
      /*值的序列化器*/
      "value.deserializer" -> classOf[StringDeserializer],
      /*消费者所在分组的 ID*/
      "group.id" -> "spark-streaming-group",
      /*
       * 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
       * latest: 在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
       * earliest: 在偏移量无效的情况下,消费者将从起始位置读取分区的记录
       */
      "auto.offset.reset" -> "latest",
      /*是否自动提交*/
      "enable.auto.commit" -> (true: java.lang.Boolean)
    )
    
    /*可以同时订阅多个主题*/
    val topics = Array("spark-streaming-topic")
    val stream = KafkaUtils.createDirectStream[String, String](
      streamingContext,
      /*位置策略*/
      PreferConsistent,
      /*订阅主题*/
      Subscribe[String, String](topics, kafkaParams)
    )

    /*打印输入流*/
    stream.map(record => (record.key, record.value)).print()

    streamingContext.start()
    streamingContext.awaitTermination()
  }
}

3.1 ConsumerRecord

这里获得的输入流中每一个 Record 实际上是 ConsumerRecord<K, V> 的实例,其包含了 Record 的所有可用信息,源码如下:

public class ConsumerRecord<K, V> {
    
    public static final long NO_TIMESTAMP = RecordBatch.NO_TIMESTAMP;
    public static final int NULL_SIZE = -1;
    public static final int NULL_CHECKSUM = -1;
    
    /*主题名称*/
    private final String topic;
    /*分区编号*/
    private final int partition;
    /*偏移量*/
    private final long offset;
    /*时间戳*/
    private final long timestamp;
    /*时间戳代表的含义*/
    private final TimestampType timestampType;
    /*键序列化器*/
    private final int serializedKeySize;
    /*值序列化器*/
    private final int serializedValueSize;
    /*值序列化器*/
    private final Headers headers;
    /*键*/
    private final K key;
    /*值*/
    private final V value;
    .....   
}

3.2 生产者属性

在示例代码中 kafkaParams 封装了 Kafka 消费者的属性,这些属性和 Spark Streaming 无关,是 Kafka 原生 API 中就有定义的。其中服务器地址、键序列化器和值序列化器是必选的,其他配置是可选的。其余可选的配置项如下:

1. fetch.min.byte

消费者从服务器获取记录的最小字节数。如果可用的数据量小于设置值,broker 会等待有足够的可用数据时才会把它返回给消费者。

2. fetch.max.wait.ms

broker 返回给消费者数据的等待时间。

3. max.partition.fetch.bytes

分区返回给消费者的最大字节数。

4. session.timeout.ms

消费者在被认为死亡之前可以与服务器断开连接的时间。

5. auto.offset.reset

该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:

  • latest(默认值) :在偏移量无效的情况下,消费者将从其启动之后生成的最新的记录开始读取数据;
  • earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录。
6. enable.auto.commit

是否自动提交偏移量,默认值是 true,为了避免出现重复数据和数据丢失,可以把它设置为 false。

7. client.id

客户端 id,服务器用来识别消息的来源。

8. max.poll.records

单次调用 poll() 方法能够返回的记录数量。

9. receive.buffer.bytes 和 send.buffer.byte

这两个参数分别指定 TCP socket 接收和发送数据包缓冲区的大小,-1 代表使用操作系统的默认值。

3.3 位置策略

Spark Streaming 中提供了如下三种位置策略,用于指定 Kafka 主题分区与 Spark 执行程序 Executors 之间的分配关系:

  • PreferConsistent : 它将在所有的 Executors 上均匀分配分区;

  • PreferBrokers : 当 Spark 的 Executor 与 Kafka Broker 在同一机器上时可以选择该选项,它优先将该 Broker 上的首领分区分配给该机器上的 Executor;

  • PreferFixed : 可以指定主题分区与特定主机的映射关系,显示地将分区分配到特定的主机,其构造器如下:

@Experimental
def PreferFixed(hostMap: collection.Map[TopicPartition, String]): LocationStrategy =
  new PreferFixed(new ju.HashMap[TopicPartition, String](hostMap.asJava))

@Experimental
def PreferFixed(hostMap: ju.Map[TopicPartition, String]): LocationStrategy =
  new PreferFixed(hostMap)

3.4 订阅方式

Spark Streaming 提供了两种主题订阅方式,分别为 SubscribeSubscribePattern。后者可以使用正则匹配订阅主题的名称。其构造器分别如下:

/**
  * @param 需要订阅的主题的集合
  * @param Kafka 消费者参数
  * @param offsets(可选): 在初始启动时开始的偏移量。如果没有,则将使用保存的偏移量或 auto.offset.reset 属性的值
  */
def Subscribe[K, V](
    topics: ju.Collection[jl.String],
    kafkaParams: ju.Map[String, Object],
    offsets: ju.Map[TopicPartition, jl.Long]): ConsumerStrategy[K, V] = { ... }

/**
  * @param 需要订阅的正则
  * @param Kafka 消费者参数
  * @param offsets(可选): 在初始启动时开始的偏移量。如果没有,则将使用保存的偏移量或 auto.offset.reset 属性的值
  */
def SubscribePattern[K, V](
    pattern: ju.regex.Pattern,
    kafkaParams: collection.Map[String, Object],
    offsets: collection.Map[TopicPartition, Long]): ConsumerStrategy[K, V] = { ... }

在示例代码中,我们实际上并没有指定第三个参数 offsets,所以程序默认采用的是配置的 auto.offset.reset 属性的值 latest,即在偏移量无效的情况下,消费者将从其启动之后生成的最新的记录开始读取数据。

3.5 提交偏移量

在示例代码中,我们将 enable.auto.commit 设置为 true,代表自动提交。在某些情况下,你可能需要更高的可靠性,如在业务完全处理完成后再提交偏移量,这时候可以使用手动提交。想要进行手动提交,需要调用 Kafka 原生的 API :

  • commitSync: 用于异步提交;
  • commitAsync:用于同步提交。

具体提交方式可以参见:[Kafka 消费者详解](https://github.com/heibaiying/BigData-Notes/blob/master/notes/Kafka 消费者详解.md)

四、启动测试

4.1 创建主题

1. 启动Kakfa

Kafka 的运行依赖于 zookeeper,需要预先启动,可以启动 Kafka 内置的 zookeeper,也可以启动自己安装的:

# zookeeper启动命令
bin/zkServer.sh start

# 内置zookeeper启动命令
bin/zookeeper-server-start.sh config/zookeeper.properties

启动单节点 kafka 用于测试:

# bin/kafka-server-start.sh config/server.properties
2. 创建topic
# 创建用于测试主题
bin/kafka-topics.sh --create \
                    --bootstrap-server hadoop001:9092 \
                    --replication-factor 1 \
                    --partitions 1  \
                    --topic spark-streaming-topic

# 查看所有主题
 bin/kafka-topics.sh --list --bootstrap-server hadoop001:9092
3. 创建生产者

这里创建一个 Kafka 生产者,用于发送测试数据:

bin/kafka-console-producer.sh --broker-list hadoop001:9092 --topic spark-streaming-topic

4.2 本地模式测试

这里我直接使用本地模式启动 Spark Streaming 程序。启动后使用生产者发送数据,从控制台查看结果。

从控制台输出中可以看到数据流已经被成功接收,由于采用 kafka-console-producer.sh 发送的数据默认是没有 key 的,所以 key 值为 null。同时从输出中也可以看到在程序中指定的 groupId 和程序自动分配的 clientId

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark Streaming是一个流处理框架,可以处理实时数据流。而Kafka是一个分布式的消息队列系统,可以实现高吞吐量的数据传输。将Spark StreamingKafka整合起来,可以实现高效的实时数据处理。 以下是Spark Streaming整合Kafka的超详细指南: 1. 首先,需要在pom.xml文件中添加KafkaSpark Streaming的依赖。 2. 接着,需要创建一个KafkaProducer,用于向Kafka发送数据。可以使用Kafka的Java API来创建KafkaProducer。 3. 然后,需要创建一个KafkaConsumer,用于从Kafka接收数据。同样可以使用Kafka的Java API来创建KafkaConsumer。 4. 在Spark Streaming中,需要创建一个StreamingContext对象。可以使用SparkConf对象来配置StreamingContext。 5. 接着,需要创建一个DStream对象,用于从Kafka接收数据。可以使用KafkaUtils.createDirectStream()方法来创建DStream对象。 6. 然后,可以对DStream对象进行一系列的转换操作,例如map、filter、reduce等操作,以实现对数据的处理。 7. 最后,需要调用StreamingContext.start()方法来启动StreamingContext,并调用StreamingContext.awaitTermination()方法来等待StreamingContext的终止。 以上就是Spark Streaming整合Kafka的超详细指南。通过以上步骤,可以实现高效的实时数据处理。 ### 回答2: 随着大数据时代的到来,数据量和处理需求越来越庞大,企业需要通过数据分析和挖掘来对业务进行优化和提升。而Apache Spark是一款分布式大数据处理框架,可优化批处理、交互式查询和流处理的数据工作负载。而Kafka是一款高吞吐量的分布式消息队列系统,可应用于日志收集、流处理和实时数据管道等场景。Spark StreamingKafka的共同应用可以实现实时流处理,并可轻松构建实时数据管道。 为了整合Spark StreamingKafka,需要进行几个基本步骤: 1.下载安装Kafka并启动Kafka服务。 2.添加Kafka的依赖包到Spark Streaming项目中。通常,引入kafka-clients库就足够了。 3.编写Spark Streaming作业程序,这样就可以从Kafka中拉取数据。 下面是一个详细的Spark Streaming整合Kafka指南: 1.安装Kafka Spark StreamingKafka之间的集成是通过Kafka的高级API来实现的,因此需要在本地安装Kafka并让其运行。具体的安装和设置Kafka的方法在官方文档上都有详细说明。在本文中,我们不会涉及这些步骤。 2.添加Kafka依赖包 在Spark Streaming应用程序中引入Kafka依赖包。要在Scala中访问Kafka,需要在代码中添加以下依赖包: ``` // For Kafka libraryDependencies += "org.apache.kafka" %% "kafka" % "0.10.0.0" ``` 3.编写Spark Streaming作业程序 Spark Streaming提供了对输入的高级抽象,可以在时间间隔内将数据流变成DStream。以下是使用Apache Spark StreamingKafka读取数据的Scala示例: ``` import org.apache.kafka.clients.consumer.ConsumerConfig import org.apache.kafka.common.serialization.StringDeserializer import org.apache.spark.SparkConf import org.apache.spark.streaming.kafka010._ import org.apache.spark.streaming.{Seconds, StreamingContext} object KafkaStreaming { def main(args: Array[String]) { val topics = Array("testTopic") val groupId = "testGroup" val kafkaParams = Map[String, Object]( ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG -> "localhost:9092", ConsumerConfig.GROUP_ID_CONFIG -> groupId, ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG -> classOf[StringDeserializer], ConsumerConfig.AUTO_OFFSET_RESET_CONFIG -> "earliest", ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG -> (false: java.lang.Boolean) ) val conf = new SparkConf().setAppName("KafkaStreaming").setMaster("local[2]") val ssc = new StreamingContext(conf, Seconds(5)) val messages = KafkaUtils.createDirectStream[String, String]( ssc, LocationStrategies.PreferConsistent, ConsumerStrategies.Subscribe[String, String](topics, kafkaParams) ) val lines = messages.map(_.value) lines.print() ssc.start() ssc.awaitTermination() } } ``` 该例子会从名为topicName 的Kafka主题上获取消息,并且每隔5秒钟打印一次消息。 4.启动应用程序 在启动应用程序之前,请确保Kafka和Zookeeper正在运行,并且Kafka的主题已被创建。然后使用以下命令启动Spark Streaming作业程序,在本地大力测试: ``` $SPARK_HOME/bin/spark-submit --class com.spark.streaming.KafkaStreaming --master local[2] KafkaStreaming-1.0-SNAPSHOT.jar ``` 总之,通过上面的四个步骤,您将能够将KafkaSpark Streaming集成起来,创建实时流处理的应用程序。这两个工具的结合非常适合实时数据处理,例如实时指标看板或监控模型。就像大多数技术一样,集成两个工具的正确方法通常需要进行扩展和微调。但是,这个指南是一个基础例子,可以帮助您理解两个工具之间的关系,以及一些基本的集成步骤。 ### 回答3: Spark是目前被广泛应用于分布式计算领域的一种强大的工具,而Kafka则是一个高性能的分布式消息队列。对于需要在分布式系统中处理流式数据的应用场景,将SparkKafka整合起来进行处理则是一种非常有效的方式。本文将详细介绍如何使用Spark Streaming整合Kafka进行流式数据处理。 1. 环境准备 首先需要安装好Scala环境、SparkKafka。 2. 创建Spark Streaming应用 接下来,需要创建一个Spark Streaming应用。在创建的过程中,需要指定数据流的输入源以及每个批次的处理逻辑。 ```scala import org.apache.spark.streaming.kafka.KafkaUtils import org.apache.spark.streaming.{StreamingContext, Seconds} object KafkaStream { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("kafka-stream") val ssc = new StreamingContext(conf, Seconds(5)) val topicSet = Set("test") val kafkaParams = Map("metadata.broker.list" -> "localhost:9092") val kafkaStream = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder]( ssc, kafkaParams, topicSet ) kafkaStream.map(_._2).flatMap(_.split(" ")).map((_, 1)).reduceByKey(_ + _).print() ssc.start() ssc.awaitTermination() } } ``` 在上述代码中,我们定义了对`test`主题的数据流进行处理,并使用了`KafkaUtils`工具类对Kafka进行了连接。接着,我们使用了`map`函数将消息内容转换为字符串,并对字符串进行了切分。然后,使用`reduceByKey`函数对字符串中的单词进行了统计。最后,我们调用了`print`函数将统计结果输出到控制台中。 3. 运行Spark Streaming应用 到这里,我们已经完成了对Spark Streaming应用的编写。接下来,需要在终端窗口中运行以下命令启动Spark Streaming应用。 ```shell $ spark-submit --class KafkaStream --master local[2] kafka-stream_2.11-0.1.jar ``` 在启动之前需要将kafka-stream_2.11-0.1.jar替换成你的jar包名。 4. 启动Kafka的消息生产者 在应用启动之后,我们还需要启动一个消息生产者模拟向Kafka发送数据。 ```shell $ kafka-console-producer.sh --broker-list localhost:9092 --topic test ``` 在控制台输入一些数据后,我们可以在Spark Streaming应用的控制台输出中看到统计结果。这表明我们已经成功地使用Spark Streaming整合Kafka进行流式数据处理。 总结 本文详细介绍了如何使用Spark Streaming整合Kafka实现流式数据处理。在实际生产环境中,还需要考虑数据的安全性、容错性、扩展性等多种因素。因此,需要对代码进行优化,以便更好地满足实际需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值