SparkSQL集成Hive

5 篇文章 0 订阅
2 篇文章 0 订阅

(1)相关配置:

将以下文件拷贝到 $SPARK_HOME/conf 目录下

Hive: hive-site.xml

Hadoop: core-site.xml和hdfs-site.xml

同时,启动Spark shell 的时候,需要制定mysql的驱动

首先查看core-site.xml,hdfs-site.xml,hive-site.xml

 

 

 

(2)拷贝mysql-connector-java-

然后将 root/hive/lib 下面的mysql-connector-java-5.1.39.jar拷贝到某个目录下(可以自己设定目录):

如root/input 目录下:

 

 

然后首先启动hdfs.yarn集群和yarn

start-hdfs.sh

start-yarn.sh

 

接着启动spark:sbin//start-all.sh

接着在spark 下输入:

bin/spark-shell --master spark://hd09-01:7077 --jars /root/input/mysql-connector-java-5.1.39.jar

备注:hd09-01 是对应集群的主机名

输入:spark.sql("show tables").show

查看是否显示hive中的表名

 

成功显示hive的所有表

 

 

 

 

  • 33
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值