Structured-Streaming>曲折发展史

Spark Structured Streaming是Spark 2.0引入的流处理框架,它基于Spark SQL,提供统一的批处理和流处理编程模型,简化了实时计算。其主要优势包括简洁的模型、一致的API、卓越的性能和多语言支持。Structured Streaming通过将实时数据流视为无限增长的表格,允许开发者使用SQL查询进行实时处理,支持多种输出模式,实现了高效且容错的流计算。
摘要由CSDN通过智能技术生成

1、Spark Streaming

在这里插入图片描述
Spark Streaming针对实时数据流,提供了一套可扩展、高吞吐、可容错的流式计算模型。Spark Streaming接收实时数据源的数据,切分成很多小的batches,然后被Spark Engine执行,产出同样由很多小的batchs组成的结果流。本质上,这是一种micro-batch(微批处理)的方式处理
不足在于处理延时较高(无法优化到秒以下的数量级), 无法支持基于event_time的时间窗口做聚合逻辑。

2、Structured Streaming

2.1、介绍

  • 官网
    http://spark.apache.org/docs/latest/structured-streaming-programming-guide.html
  • 简介
    spark在2.0版本中发布了新的流计算的API,Structured Streaming/结构化流。
    Structured Streaming是一个基于Spark SQL引擎的可扩展、容错的流处理引擎。统一了流、批的编程模型,可以使用静态数据批处理一样的方式来编写流式计算操作。并且支持基于event_time的时间窗口的处理逻辑。
    随着数据不断地到达,Spark 引擎会以一种增量的方式来执行这些操作,并且持续更新结算结果。可以使用Scala、Java、Python或R中的DataSet/DataFrame API来表示流聚合、事件时间窗口、流到批连接等。此外,Structured Streaming会通过checkpoint和预写日志等机制来实现Exactly-Once语义。
    简单来说,对于开发人员来说,(特点)根本不用去考虑是流式计算,还是批处理,只要使用同样的方式来编写计算操作即可,Structured Streaming提供了快速、可扩展、容错、端到端的一次性流处理,而用户无需考虑更多细节
    默认情况下,结构化流式查询使用微批处理引擎进行处理,该引擎将数据流作为一系列小批处理作业进行处理,从而实现端到端的延迟,最短可达100毫秒,并且完全可以保证一次容错。自Spark 2.3以来,引入了一种新的低延迟处理模式,称为连续处理,它可以在至少一次保证的情况下实现低至1毫秒的端到端延迟。也就是类似于 Flink 那样的实时流,而不是小批量处理。实际开发可以根据应用程序要求选择处理模式,但是连续处理在使用的时候仍然有很多限制,目前大部分情况还是应该采用小批量模式。

意义:

  • Spark SQL:接收sql转化成算子,对数据进行计算。意义是:降低学习、开发难度/成本。
  • SparkStreaming:实现数据的实时计算。意义:提高数据的计算效率。并且Structured Streaming可以计算实时数据

2.2、API

  • 1.Spark Streaming 时代 -DStream-RDD
    Spark Streaming 采用的数据抽象是DStream,而本质上就是时间上连续的RDD,对数据流的操作就是针对RDD的操作
    在这里插入图片描述
  • 2.Structured Streaming 时代 - DataSet/DataFrame -RDD
    Structured Streaming是Spark2.0新增的可扩展和高容错性的实时计算框架,它构建于Spark SQL引擎,把流式计算也统一到DataFrame/Dataset里去了。
    Structured Streaming 相比于 Spark Streaming 的进步就类似于 Dataset 相比于 RDD 的进步
    在这里插入图片描述

2.3、主要优势

  • 1.简洁的模型:
    Structured Streaming 的模型很简洁,易于理解。用户可以直接把一个流想象成是无限增长的表格。

Structured Streaming基于SparkSQL(DF/DS)
DF=rdd+schema(结构) 表
DS=rdd+schema +类型 表

  • 2.一致的 API:
    由于和 Spark SQL 共用大部分 API,对 Spaprk SQL 熟悉的用户很容易上手,代码也十分简洁。同时批处理和流处理程序还可以共用代码,不需要开发两套不同的代码,显著提高了开发效率。
  • 3.卓越的性能:
    Structured Streaming 在与 Spark SQL 共用 API 的同时,也直接使用了 Spark SQL 的 Catalyst 优化器和 Tungsten,数据处理性能十分出色。此外,Structured Streaming 还可以直接从未来 Spark SQL 的各种性能优化中受益。
  • 4.多语言支持:
    Structured Streaming 直接支持目前 Spark SQL 支持的语言,包括 Scala,Java,Python,R 和 SQL。用户可以选择自己喜欢的语言进行开发。

2.4、编程模型

编程模型概述
一个流的数据源从逻辑上来说就是一个不断增长的动态表格,随着时间的推移,新数据被持续不断地添加到表格的末尾。

对动态数据源进行实时查询,就是对当前的表格内容执行一次 SQL 查询。
数据查询方:用户通过触发器(Trigger)设定时间(毫秒级)。也可以设定执行周期。

一个流的输出有多种模式,既可以是基于整个输入执行查询后的完整结果,也可以选择只输出与上次查询相比的差异,或者就是简单地追加最新的结果。

这个模型对于熟悉 SQL 的用户来说很容易掌握,对流的查询跟查询一个表格几乎完全一样,十分简洁,易于理解

  • 核心思想
    在这里插入图片描述
    Structured Streaming最核心的思想就是将实时到达的数据不断追加到unbound table无界表,到达流的每个数据项(RDD)就像是表中的一个新行被附加到无边界的表中.这样用户就可以用静态结构化数据的批处理查询方式进行流计算,如可以使用SQL对到来的每一行数据进行实时查询处理;(SparkSQL+SparkStreaming=StructuredStreaming)

  • 应用场景
    Structured Streaming将数据源映射为类似于关系数据库中的表(SparkSQL中的DF/DS),然后将经过计算得到的结果映射为另一张表,完全以结构化的方式去操作流式数据,这种编程模型非常有利于处理分析结构化的实时数据;

一个流的输出有多种模式

查询后的完整结果
与上次查询相比的差异
追加最新的结果

  • WordCount图解
    在这里插入图片描述
    如图所示
    第一行表示从socket不断接收数据,
    第二行可以看成是之前提到的“unbound table",
    第三行为最终的wordCounts是结果集。
    当有新的数据到达时,Spark会执行“增量"查询,并更新结果集;

    该示例设置为Complete Mode(输出所有数据),因此每次都将所有数据输出到控制台;

  • 1.在第1秒时,此时到达的数据为"cat dog"和"dog dog",因此我们可以得到第1秒时的结果集cat=1 dog=3,并输出到控制台;

  • 2.当第2秒时,到达的数据为"owl cat",此时"unbound table"增加了一行数据"owl cat",执行word count查询并更新结果集,可得第2秒时的结果集为cat=2 dog=3 owl=1,并输出到控制台;

  • 3.当第3秒时,到达的数据为"dog"和"owl",此时"unbound table"增加两行数据"dog"和"owl",执行word count查询并更新结果集,可得第3秒时的结果集为cat=2 dog=4 owl=2;

这种模型跟其他很多流式计算引擎都不同。大多数流式计算引擎都需要开发人员自己来维护新数据与历史数据的整合并进行聚合操作。然后我们就需要自己去考虑和实现容错机制、数据一致性的语义等。然而在structured streaming的这种模式下,spark会负责将新到达的数据与历史数据进行整合,并完成正确的计算操作,同时更新result table,不需要我们去考虑这些事情。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值