spark链接hive并查询数据

首先启动 hadoop,mysql,hive 服务

{hadoop}/sbin/start-all.sh

service mysqld start 

hive --service metastore&

hive --service hiveserver2  &

最后启动spark 我是以python方式启动的spark

{spark_home}/bin/pyspark

如果没有报错就是没有什么问题。接下来我们运行一段代码进行测试一下:

>>>from pyspark.sql import HiveContext
>>>from pyspark import SparkConf,SparkContext 
>>>conf = SparkConf().setMaster("local").setAppName("My App") 
>>>sc= SparkContext(conf=conf)
>>> hiveCtx=HiveContext(sc) 
>>>hh=hiveCtx.sql("select * from test")
>>>hh.show()
>>> print hh.first()
Row(id=1)

一切ok,首先要注意下,spark链接hive的时候一定要把 hive/conf下面的hive-site.xml 拷贝到spark/conf 下面

在hive-site.xml 中要配置:主要指明hive的存储位置

<property>  
                <name>hive.metastore.uris</name>  
                <value>thrift://vm000:9083</value>  
                <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>  
        </property>  

我在配置完成之后还是报错就重启了系统,就好了

转载于:https://www.cnblogs.com/tong775131501/p/7595137.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值