04 Spark SQL

Spark SQL概述

大数据领域,SQL 的重要性无需多言,甚至称得上是“万物皆可 SQL 化”。不管是做平台的,还是做应用的,都免不了跟 SQL 打交道。大数据工程师们跟 SQL 的关系紧密。

从 Hive/Spark SQL 等最原始、最普及的 SQL 查询引擎,到 Kylin/ClickHouse 等 OLAP 引擎,再到流式的 Flink SQL/Kafka SQL,大数据的各条技术栈,都在或多或少地往 SQL 方向靠拢。缺乏对 SQL 的支持会让自身的技术架构逊色不少,同时也会影响使用的便利性。

Spark SQL 是 Spark 中用来处理结构化数据的一个模块,它提供了一个编程抽象(DataFrame),并且可以作为分布式 SQL 的查询引擎。

Spark SQL是Spark生态系统中非常重要的组件,其前身为Shark。Shark是Spark上的数据仓库,最初设计成与Hive兼容,但是该项目于2014年开始停止开发,转向Spark SQL。Spark SQL全面继承了Shark,并进行了优化。

Spark SQL 可以将数据的计算任务通过 SQL 的形式转换成 RDD再提交到集群执行计算,类似于 Hive 通过 SQL 的形式将数据的计算任务转换成 MapReduce,大大简化了编写 Spark 数据计算操作程序的复杂性,且执行效率比 MapReduce 这种计算模型高。

Spark SQL特点

Spark SQL 有以下特点:

  • 和 Spark Core 的无缝集成,可以在写整个 RDD 应用程序时,配置 Spark SQL 来完成逻辑实现。
  • 统一的数据访问方式,Spark SQL 提供标准化的 SQL 查询。
  • Hive 的继承,Spark SQL 通过内嵌的 Hive 或者连接外部已经部署好的 Hive 案例,实现了对 Hive 语法的继承和操作。
  • 标准化的连接方式,Spark SQL 可以通过启动 Thrift Server 来支持 JDBC、ODBC 的访问,将自己作为一个 BI Server 使用。

Spark SQL与HIVE对比

在这里插入图片描述

  • Hive和Spark均是:“分布式SQL计算引擎”
  • 均是构建大规模结构化数据计算的绝佳利器,同时SparkSQL拥有更好的性能。
    目前,企业中使用Hive仍旧居多,但SparkSQL将会在很近的未来替代Hive成为分布式SQL计算市场的顶级。

Spark SQL运行原理

运行原理:将 Spark SQL 转化为 RDD, 然后提交到集群执行
在这里插入图片描述

Spark SQL 数据抽象

RDD、DataFrame、DataSet 的区别

结构上的区别

请添加图片描述
上图直观地体现了DataSet、DataFrame和RDD的区别。

  • 左侧的RDD[Person]虽然以Person为类型参数,但Spark框架本身不了解Person类的内部结构。
  • 中间的DataFrame却提供了详细的结构信息,使得Spark SQL可以清楚地知道该数据集中包含哪些列,每列的名称和类型各是什么。DataFrame是为数据提供了Schema的视图。可以把它当做数据库中的一张表来对待。
  • DataSet[Person]:不单有 Schema 信息,还有类型信息。

DataFrame也是懒执行的,DataSet懒执行、RDD懒执行。

结构区别案例

假设 RDD[Person] 中有两行数据:
请添加图片描述

DataFrame 中的数据为:
请添加图片描述

Dataset[Person] 中的数据为:
请添加图片描述
从数据上能更直观地看出 RDD、DataFrame、DataSet 之间的区别。

参考

初识 Spark SQL | 20张图详解 Spark SQL 运行原理及数据抽象

Spark——一文理解SparkSQL的基础概念、函数、执行流程和优化流程

Spark入门: Spark SQL简介(Python版)

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值