Spark On Hive

Spark On Hive

配置

1.将部署好的hive的路径下的conf/hive-site.xml复制到spark安装路径下的conf/

2.将部署好的hive的路径下的lib/mysql驱动包,我的是(mysql-connector-java-8.0.15.jar)拷贝到spark安装路径下的jars/

3.启动Hive的metastore服务

hive --service metastore

4.启动ZooKeeper集群,启动HDFS集群

5.启动spark-shell

bin/spark-shell --master spark://hadoop2:7077 --executor-cores 1 --executor-memory 1g --total-executor-cores 1

正常打开后:

scala> spark.sql("show tables").show
databasetableNameisTemporary
defaultyour_table1false
defaultyour_table2false
defaultyour_table3false

直接可以使用spark.sql("")获取数据

IDEA 操作集群上的spark on hive

配置

1.将hive安装路径下的conf/hive-site.xml 拷贝至idea scala项目下 (为避免报错 可在target/classes下也放一份)

在这里插入图片描述

2.在pom.xml中添加依赖
    <!-- SparkSQL  ON  Hive-->
    <dependency>
      <groupId>org.apache.spark</groupId>
      <artifactId>spark-hive_2.11</artifactId>
      <version>2.3.1</version>
    </dependency>
    <!--mysql依赖的jar包-->
    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
      <version>5.1.47</version>
    </dependency>
3.在创建session代码中添加hive支持 enableHiveSupport()
4.配置master(spark集群中的master)

测试代码:

package com.bjsxt.scala.spark.sparksql.dataframe

import org.apache.spark.sql.SparkSession

object CreateDFFromHive {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().enableHiveSupport().appName("spark-hive").master("spark://hadoop2:7077").getOrCreate()
    spark.sql("show tables").show()
  }
}

adoop2:7077").getOrCreate()
spark.sql(“show tables”).show()
}
}


  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值