大数据技术之SparkSql

1SparkSQL 概述

1.1 SparkSQL 是什么

    Spark SQL Spark 用于结构化数据(structured data)处理的 Spark 模块。

1.2 Hive and SparkSQL

    SparkSQL 的前身是 Shark ,给熟悉 RDBMS 但又不理解 MapReduce 的技术人员提供快
速上手的工具。
    Hive 是早期唯一运行在 Hadoop 上的 SQL-on-Hadoop 工具。但是 MapReduce 计算过程中大量的中间磁盘落地过程消耗了大量的 I/O ,降低的运行效率,为了提高 SQL-on-Hadoop 的效率,大量的 SQL-on-Hadoop 工具开始产生,其中表现较为突出的是:
    Drill
    Impala
    Shark
    其中 Shark 是伯克利实验室 Spark 生态环境的组件之一,是基于 Hive 所开发的工具,它修改了下图所示的右下角的内存管理、物理计划、执行三个模块,并使之能运行在 Spark 引擎上。

    Shark 的出现,使得 SQL-on-Hadoop 的性能比 Hive 有了 10-100 倍的提高。

        但是,随着 Spark 的发展,对于野心勃勃的 Spark 团队来说, Shark 对于 Hive 的太多依赖(如采用 Hive 的语法解析器、查询优化器等等),制约了 Spark One Stack Rule Them All 的既定方针,制约了 Spark 各个组件的相互集成,所以提出了 SparkSQL 项目。 SparkSQL 抛弃原有 Shark 的代码,汲取了 Shark 的一些优点,如内存列存储( In-Memory Columnar Storage)、 Hive 兼容性等,重新开发了 SparkSQL 代码;由于摆脱了对 Hive 的依赖性, SparkSQL 无论在数据兼容、性能优化、组件扩展方面都得到了极大的方便,真可谓“ 退一步,海阔天空”
数据兼容方面 SparkSQL 不但兼容 Hive ,还可以从 RDD parquet 文件、 JSON 文件中获取数据,未来版本甚至支持获取 RDBMS 数据以及 cassandra NOSQL 数据;
性能优化方面除了采取 In-Memory Columnar Storage byte-code generation 等优化技术外、将会引进 Cost Model 对查询进行动态评估、获取最佳物理计划等等;
组件扩展方面无论是 SQL 的语法 解析器、分析器还是优化器 都可以重新定义,进行扩展。

        其中 SparkSQL 作为 Spark 生态的一员继续发展,而不再受限于 Hive ,只是兼容 Hive ;而Hive on Spark 是一个 Hive 的发展计划,该计划将 Spark 作为 Hive 的底层引擎之一,也就是说,Hive 将不再受限于一个引擎,可以采用 Map-Reduce、Tez、Spark 等引擎。
        对于开发人员来讲, SparkSQL 可以简化 RDD 的开发,提高开发效率,且执行效率非常快,所以实际工作中,基本上采用的就是 SparkSQL Spark SQL 为了简化 RDD 的开发,提高开发效率,提供了 2 个编程抽象,类似 Spark Core 中的 RDD
DataFrame
DataSet

1.3 SparkSQL 特点

1.3.1 易整合

无缝的整合了 SQL 查询和 Spark 编程

1.3.2 统一的数据访问

使用相同的方式连接不同的数据源

 1.3.3 兼容 Hive

在已有的仓库上直接运行 SQL 或者 HiveQL

 

 1.3.4 标准数据连接

通过 JDBC 或者 ODBC 来连接

 1.4 DataFrame 是什么

        在 Spark 中, DataFrame 是一种以 RDD 为基础的分布式数据集, 类似于传统数据库中的二维表格 DataFrame RDD 的主要区别在于,前者带有 schema 元信息,即 DataFrame 所表示的二维表数据集的每一列都带有名称和类型。这使得 Spark SQL 得以洞察更多的结构信息,从而对藏于 DataFrame 背后的数据源以及作用于 DataFrame 之上的变换进行了针对性的优化,最终达到大幅提升运行时效率的目标。反观 RDD ,由于无从得知所存数据元素的具体内部结构,Spark Core 只能在 stage 层面进行简单、通用的流水线优化。
        同时,与 Hive 类似, DataFrame 也支持嵌套数据类型( struct array map )。从 API 易用性的角度上看,DataFrame API 提供的是一套高层的关系操作,比函数式的 RDD API 要更加友好,门槛更低。

        上图直观地体现了 DataFrame RDD 的区别。 

1.5 DataSet 是什么

        DataSet 是分布式数据集合。 DataSet Spark 1.6 中添加的一个新抽象,是 DataFrame的一个扩展。它提供了 RDD 的优势(强类型,使用强大的 lambda 函数的能力)以及 Spark SQL 优化执行引擎的优点。 DataSet 也可以使用功能性的转换(操作 map flatMap filter 等等)。
DataSet DataFrame API 的一个扩展,是 SparkSQL 最新的数据抽象;
用户友好的 API 风格,既具有类型安全检查也具有 DataFrame 的查询优化特性;
用样例类来对 DataSet 中定义数据的结构信息,样例类中每个属性的名称直接映射到 DataSet中的字段名称;
DataSet 是强类型的。比如可以有 DataSet[Car] DataSet[Person]
DataFrame DataSet 的特列, DataFrame=DataSet[Row] ,所以可以通过 as 方法将 DataFrame 转换为 DataSet Row 是一个类型,跟 Car Person 这些的类型一样,所有的表结构信息都用 Row 来表示。获取数据时需要指定顺序

2SparkSQL 核心编程

        本课件重点学习如何使用 Spark SQL 所提供的 DataFrame DataSet 模型进行编程, 以及了解它们之间的关系和转换, 关于具体的 SQL 书写不是我们的重点

2.1 新的起点

        Spark Core 中,如果想要执行应用程序,需要首先构建上下文环境对象 SparkContext, Spark SQL 其实可以理解为对 Spark Core 的一种封装,不仅仅在模型上进行了封装,上下文环境对象也进行了封装。
        在老的版本中, SparkSQL 提供两种 SQL 查询起始点:一个叫 SQLContext ,用于 Spark 自己提供的 SQL 查询;一个叫 HiveContext ,用于连接 Hive 的查询。 SparkSession Spark 最新的 SQL 查询起始点,实质上是 SQLContext HiveContext 的组合,所以在 SQLContext 和 HiveContext 上可用的 API SparkSession 上同样是可以使用的。SparkSession 内部封装了 SparkContext ,所以计算实际上是由 sparkContext 完成的。当我们使用 spark-shell 的时候 , spark 框架会自动的创建一个名称叫做 spark SparkSession 对象, 就像我们以前可以自动获取到一个 sc 来表示 SparkContext 对象一样 

2.2 DataFrame

        Spark SQL DataFrame API 允许我们使用 DataFrame 而不用必须去注册临时表或者
生成 SQL 表达式。 DataFrame API 既有 transformation 操作也有 action 操作。

2.2.1 创建 DataFrame

        在 Spark SQL SparkSession 是创建 DataFrame 和执行 SQL 的入口,创建 DataFrame
有三种方式:通过 Spark 的数据源进行创建;从一个存在的 RDD 进行转换;还可以从 Hive Table 进行查询返回。
1) Spark 数据源进行创建
查看 Spark 支持创建文件的数据源格式
scala> spark.read.
csv format jdbc json load option options orc parquet schema table text textFile

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据翻身

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值