orc parquet区别 spark_Spark结构化流核心概念

流应用程序包括以下主要部分:

  • 指定一个或多个流数据源
  • 提供了以DataFrame转换的形式操纵传入数据流的逻辑
  • 定义输出模式和触发器(都有默认值,所以是可选的)。
  • 最后指定一个将结果写出到的数据接收器(data sink)。

下图概述了前面提到的步骤。可选的选项用星号标记。

9c6873753e7dd1ffd8c51b0ebee347c2.png

下面的部分将详细描述这些概念。

数据源

对于批处理,数据源是驻留在某些存储系统上的静态数据集,如本地文件系统、HDFS或S3。结构化流的数据源是完全不同的。他们生产的数据是连续的,可能永远不会结束,而且生产速率也会随着时间而变化。

Spark结构化流提供了以下开箱即用的数据源:

  • Kafka源:要求Apache Kafka的版本是0.10或更高版本。这是生产环境中最流行的数据源。连接和读取来自Kafka主题的数据需要提供一组特定的设置。
  • 文件源:文件位于本地文件系统、HDFS或S3上。当新的文件被放入一个目录中时,这个数据源将会把它们挑选出来进行处理。支持常用的文件格式,如文本、CSV、JSON、ORC和Parquet。在处理这个数据源时,一个好的实践是先完全地写出输入文件,然后再将它们移动到这个数据源的路径中。(例如,流程序监控的是HDFS上的A目录,那么先将输入文件写出到HDFS的B目录中,再从B目录将它们移动到A目录)
  • Socket源:这仅用于测试目的。它从一个监听特定的主机和端口的socket上读取UTF-8数据。
  • Rate source:这仅用于测试和基准测试。这个源可以被配置为每秒产生许多事件,其中每个事件由时间戳和一个单调递增的值组成。这是学习结构化的流时使用的最简单的源。

数据源需要提供的一个重要的属性是一种跟踪流中的读位置的方法,用于结构化的流来传递端到端、exactly once保证。例如,Kafka的数据源提供了一个Kafka的偏移量来跟踪一个主题分区的读位置。这个属性决定一个特定的数据源是否具有容错能力。

下表描述了每个开箱即用数据源的一些选项。

ac9afe46e2d4d0bd82fe330e4366acfc.png

Apache Spark 2.3引入了DataSource V2 APIs,这是一组官方支持的接口,用于Spark开发人员开发定制数据源,这些数据源可以很容易地与结构化流集成。有了这些定义良好的API集,在不久的将来,自定义结构化流源的数量将急剧增加。

输出模式

输出模式是一种方法,可以告诉结构流如何将输出数据写入到sink中。这个概念对于Spark中的流处理来说是独一无二的。输出模式有三个选项。

  • append模式:如果没有指定输出模式,这是默认模式。在这种模式下,只有追加到结果表的新行才会被发送到指定的输出接收器。只有自上次触发后在结果表中附加的新行将被写入外部存储器。这仅适用于结果表中的现有行不会更改的查询。
  • complete模式:此模式将数据完全从内存写入接收器,即整个结果表将被写到输出接收器。当对流数据执行聚合查询时,就需要这种模式。
  • update模式:只有自上次触发后在结果表中更新的行才会被写到输出接收器中。对于那些没有改变的行,它们将不会被写出来。注意,这与complete模式不同,因为此模式不输出未更改的行。

触发器类型

触发器是另一个需要理解的重要概念。结构化流引擎使用触发器信息来确定何时在流应用程序中运行提供的流计算逻辑。下表描述了不同的触发类型。

eada45cc33965ce88bf56611032f2ab0.png

数据接收器(Data Sinks)

数据接收器是用来存储流应用程序的输出的。不同的sinks可以支持不同的输出模式,并且具有不同的容错能力,了解这一点很重要。Spark结构化流支持以下几种数据接收器:

  • Kafka sink:要求Apache Kafka的版本是0.10或更高版本。有一组特定的设置可以连接到Kafka集群。
  • File sink:这是文件系统、HDFS或S3的目的地。支持常用的文件格式,如文本、CSV、JSON、ORC、Parquet。
  • Foreach sink:这是为了在输出中的行上运行任意计算。
  • Console sink:这仅用于测试和调试目的,以及在处理低容量数据时。每个触发器上输出被打印到控制台。
  • Memory sink:这是在处理低容量数据时进行测试和调试的目的。它使用驱动程序的内存来存储输出。

下表列出了每个sink的各种选项:

0c59dfc4c0ecade75b351831194421b9.png

一个数据接收器必须支持的一个重要的属性(用于结构化的流交付端到端、exactly once保证)是处理再处理的幂等性。换句话说,它必须能够处理使用相同数据的多个写(在不同的时间发生),结果就像只有一个写一样。多重写是在故障场景中重新处理数据的结果。

水印(Watermarking)

数字水印是流式处理引擎中常用的一种技术,用于处理比同一时间生成的其他数据晚得多的数据。当流计算逻辑要求流处理引擎维护某种状态时(例如,聚合或连接),迟到数据对流处理引擎提出了挑战。流应用程序开发人员可以指定一个阈值,让结构化的流引擎知道数据在事件时间(event time)内的预期延迟时间。有了这个信息,结构化的流引擎可以决定一段延迟的数据是否会被处理或丢弃。更重要的是,结构化流使用指定的阈值来确定何时可以丢弃旧状态。没有这些信息,结构化流将需要无限期地维护所有状态,这将导致流应用程序的内存溢出问题。任何执行某种聚合或连接的生产环境下的结构化流应用程序都需要指定水印。这是一个重要的概念,关于这个主题的更多细节将在后面的部分中讨论和说明。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值