SparkSQL整合Hive实现metastore元数据共享

6 篇文章 0 订阅

一、需求

在兼容Hive技术的前提下,推进SparkSQL技术的使用,那么就会衍生出一个问题:如何让Hive和SparkSQL数据共享?,比如在Hive中操作,然后在SparkSQL中能够看到变化,反之亦然。

注意:记住一个前提,先使用Hive在先,后引入SparkSQL,笔者在操作过程中发现了一个问题,之前SparkSQL中的数据会看不到,只能看到Hive中的,这个问题有待进一步研究。

Hive版本:1.2.x

Spark版本:1.6.x

Hadoop版本:2.6.x

二、解决方案

1. 修改$HIVE_HOME/conf/hive-site.xml文件

cd $HIVE_HOME/conf
vim hive-site.xml

#搜索找到hive.metastore.uris配置项
:/hive.metastore.uris
#增加该项配置值
thrift://hive_server_ip:9083

2. 启动metastore服务

hive --service metastore  1>/dev/null  2>&1  &

jobs查看服务是否启动

如果不启动服务,在启动Spark thriftServer服务的时候会报如下错误:

org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

3. copy hive-site.xml 到所有节点的$SPARK_HOME/conf

4. beeline -u jdbc:hive2://ip:10011进入SparkSQL

hive_test数据库是在安装Hivehttps://blog.csdn.net/u011817217/article/details/88813874中测试新建的一个数据库,但是之前在SparkSQL中创建的数据库没有显示出来。

虽然已经实现SparkSQL操作Hive,并且Hive之前创建的数据库能够显示,但是引出了一个问题:SparkSQL之前创建的数据库却没有显示出来。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值