Spark SQL-延伸知识之Hive On Spark

Hive是目前大数据领域,事实上的SQL标准。其底层默认是基于MapReduce实现的,但是由于MapReduce速度实在比较慢,因此这两年,陆续出来了新的SQL查询引擎。包括Spark SQL,Hive On Tez,Hive On Spark等。

Spark SQL与Hive On Spark是不一样的。Spark SQL是Spark自己研发出来的针对各种数据源,包括Hive、JSON、Parquet、JDBC、RDD等都可以执行查询的,一套基于Spark计算引擎的查询引擎。因此它是Spark的一个项目,只不过提供了针对Hive执行查询的工功能而已。适合在一些使用Spark技术栈的大数据应用类系统中使用。

而Hive On Spark,是Hive的一个项目,它是指,不通过MapReduce作为唯一的查询引擎,而是将Spark作为底层的查询引擎。Hive On Spark,只适用于Hive。在可预见的未来,很有可能Hive默认的底层引擎就从MapReduce切换为Spark了。适合于将原有的Hive数据仓库以及数据统计分析替换为Spark引擎,作为全公司通用的大数据统计分析引擎。

首先看一下Hive的基本工作原理:

Hive QL语句 =>

语法分析 => AST =>

生成逻辑执行计划 => Operator Tree =>

优化逻辑执行计划 => Optimized Operator Tree =>

生成物理执行计划 => Task Tree =>

优化物理执行计划 => Optimized Task Tree =>

执行优化后的Optimized Task Tree

Hive On Spark的计算原理有如下几个要点:

1、将Hive表作为Spark RDD来进行操作:这个是没有疑问的

2、使用Hive原语

对于一些针对RDD的操作,比如groupByKey、sortByKey等。不使用Spark的transformation操作和原语。如果那样做的话,那么就需要重新实现一套Hive的原语,而且如果Hive增加了新功能,那么又要实现新的Spark原语。因此选择将Hive的原语包装为针对RDD的操作即可。

3、新的物理执行计划生成机制

使用SparkCompiler将逻辑执行计划,即Operator Tree,转换为Task Tree。提交Spark Task给Spark进行执行。SparkTask包装了DAG,DAG包装为SparkWork。SparkTask根据SparkWork表示的DAG计算。

4、SparkContext生命周期

Hive On Spark会为每个用户的会话,比如执行一次SQL语句,创建一个SparkContext。但是Spark不允许在一个JVM内创建多个SparkContext。因此,需要在单独的JVM中启动每个会话的SparkContext,然后通过RPC与远程JVM中的SparkContext进行通信。

5、本地和远程运行模式

Hive On Spark提供两种运行模式,本地和远程。如果将Spark Master设置为local,比如set spark.master=local,那么就是本地模式,SparkContext与客户端运行在一个JVM中。否则,如果将Spark Master设置为Master的地址,那么就是远程模式,SparkContext会在远程的JVM中启动。

远程模式下,每个用户Session都会创建一个SparkClient,SparkClient启动RemoteDriver,RemoteDriver负责创建SparkContext。

Hive On Spark做了一些优化:

1、Map Join

Spark SQL默认对join是支持使用broadcast机制将小表广播到各个节点上,以进行join的。但是问题是,这会给Driver和Worker带来很大的内存开销。因为广播的数据要一直保留在Driver内存中。所以目前采取的是,类似乎MapReduce的Distributed Cache机制,即提高HDFS replica factor的复制因子,以让数据在每个计算节点上都有一个备份,从而可以在本地进行数据读取。

2、Cache Table

对于某些需要对一张表执行多次操作的场景,Hive On Spark内部做了优化,即将要多次操作的表cache到内存中,以便于提升性能。但是这里要注意,并不是对所有的情况都会自动进行cache。所以说,Hive On Spark还有很多不完善的地方。

1、使用课程提供的apache-hive-1.2.1-bin.tar.gz

2、在/usr/local目录下解压缩

3、进入conf目录,mv hive-default.xml.template hive-site.xml,修改hive-site.xml

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://spark1:3306/hive_metadata_2?createDatabaseIfNotExist=true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>hive</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>hive</value>

</property>

<property>

<name>hive.metastore.warehouse.dir</name>

<value>/user/hive/warehouse2</value>

</property>

4、在conf目录下

mv hive-env.sh.template hive-env.sh

vi ./bin/hive-config.sh

export JAVA_HOME=/usr/java/latest

export HIVE_HOME=/usr/local/apache-hive-1.2.1-bin

export HADOOP_HOME=/usr/local/hadoop

5、cp /usr/share/java/mysql-connector-java-5.1.17.jar /usr/local/apache-hive-1.2.1-bin/lib

6、MySQL

create database if not exists hive_metadata_2;

grant all privileges on hive_metadata_2.* to 'hive'@'%' identified by 'hive';

grant all privileges on hive_metadata_2.* to 'hive'@'localhost' identified by 'hive';

grant all privileges on hive_metadata_2.* to 'hive'@'spark1' identified by 'hive';

flush privileges;

7、启动hive cli,./hive,报错,Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D

创建文件夹:/home/grid/apache-hive-1.2.1-bin

/iotmp

将hive-site.xml中所有的${system:java.io.tmpdir}改为上面的目录,这里建议用WinSCP将hive-site.xml拷贝到windows上来,用notepad++这种工具,来进行文本替换,比较方便。

8、启动hive cli,./hive,继续报错,Found class jline.Terminal, but interface was expected

cp /usr/local/apache-hive-1.2.1-bin/lib/jline-2.12.jar /usr/local/hadoop/share/hadoop/yarn/lib

将hadoop原来的老的jline-0.9.94.jar,改名或者删除

9、启动hive cli,/usr/local/apache-hive-1.2.1-bin/bin/hive,成功启动

create table students(name string, age int);

load data local inpath '/usr/local/spark-study/resources/students.txt' into table students;

// 使用Hive On Spark非常简单

// 只要用set hive.execution.engine命令设置Hive的执行引擎为spark即可

// 默认是mr

set hive.execution.engine=spark;

// 这里,是完全可以将其设置为Spark Master的URL地址的

set spark.master=spark://192.168.1.107:7077

select * from students;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark SQLSpark生态系统中的一个模块,用于在Spark中进行结构化数据处理。它提供了一个类似于SQL的查询语言,可以用于查询和操作数据。Spark SQL还提供了DataFrame API,可以用于以编程方式查询和操作数据。 Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。这意味着Spark可以使用Hive的表和分区,以及Hive的UDF和UDAF函数。Spark SQL on Hive还支持Hive的查询语言HQL。 因此,Spark SQLSpark SQL on Hive的区别在于Spark SQLSpark生态系统中的一个独立模块,而Spark SQL on HiveSpark SQL的一个扩展,它允许Spark使用Hive元数据存储和查询数据。 ### 回答2: Spark SQLSpark生态系统中的一个模块,它提供了一种用于Spark的交互式查询和分析数据的方式。Spark SQL支持不同的数据源,包括Hadoop HDFS,Apache Cassandra和Apache Hive。同时,Spark SQL还支持在SQL查询之外使用DataFrame API进行编程。 Spark SQL on Hive是指在Spark SQL中使用Hive数据源进行数据查询和分析。在使用Spark SQL on Hive时,Spark将会利用Hive的元数据和查询优化器来提高查询性能。这使得Spark SQL on Hive在企业环境中是一种极为常见的部署方式。 Spark SQLSpark SQL on Hive的主要区别在于数据源和优化器。Spark SQL可以与各种不同的数据源进行交互,而Spark SQL on Hive主要使用Hive元数据和优化器来处理数据。此外,Spark SQL也可以使用自己的优化器,它针对Spark SQL的特点进行了优化和改进。 另一个区别是在处理大规模数据时,Spark SQLSpark SQL on Hive表现更好。这是因为Spark SQL使用了自己的内存管理和优化策略,可以将大量的计算分布到多个节点上,从而处理更快、更高效。 综上所述,Spark SQLSpark SQL on Hive都是非常强大并且受欢迎的Spark模块,它们都具有广泛的应用和不同的优势。选择哪种模块取决于具体应用场景和需求。 ### 回答3: Spark SQLSpark 内置的一种 SQL 接口,用于操作分布式数据集(由 RDD 或 Spark 数据源构建)。Spark SQL 提供了一个 SQL 编程界面和 DataFrame API,让其与 SQL 数据仓库和传统数据仓库类似。 Spark SQL on Hive 是一个构建在 Hive 之上的 Spark SQL 解决方案。它允许 Spark SQL 直接操作 Hive 的数据仓库,使用 Hive 的方言(HiveQL)和元数据。Spark SQL on Hive 可以通过 Spark 操作 Hive 仓库来提供 SQL 查询和 HiveQL 查询功能。 由于 Spark SQL on Hive 是构建在 Hive 之上的,因此它提供了很多 Hive 的优点,比如先进的查询优化和元数据管理功能。它使用HDFS作为存储层,通过优化和管理查询计划来提高性能。 而 Spark SQL 直接使用 Spark 原生的内存计算引擎,不需要依赖于 Hive 的元数据解析和查询计划优化。这使得 Spark SQL 具有更好的实时性能和灵活性,可以直接在内存中操作数据。 总的来说,Spark SQL on Hive 主要是为了兼容 Hive 所提供的,而 Spark SQL 则是相对独立的一种 SQL 操作方式,更适合实时处理和大数据量的计算场景。Spark SQL on Hive 更适合用于传统的数据仓库和 BI 应用场景,而 Spark SQL 更适合用于实时数据处理和机器学习等高性能计算场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值