spark on hive

3 篇文章 0 订阅

简介

配置完hive之后,就可以配置使用spark来利用hive的数据引擎做计算

配置hive-site.xml

此时配置的hive-site.xml,不是hive下的hive-site.xml,而是spark的hive-site.xml。在conf下vim一个新文件hive-site.xml,输入以下内容:

vim hive-site.xml
输入配置内容:

<configuration>
 <property>
    <name>hive.metastore.uris</name>
    <value>thrift://master:9083</value>
 </property>
</configuration>

使用hive元数据仓库作为spark的数据引擎

启动hive的metastore

配置完hive-site.xml之后去连接hive,其实是无法连接,因为metastore没有启动,因此需要在hive的bin目录下去启动metastore

hive –service metastore

启动后会停滞在界面上,其实metastore已经启动了,这时在用spark-shell去使用hive,发现已经可以正常使用了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值