11.7 spark和hive整合

1、在Spark的安装包下的conf下创建一个文件 hive-site.xml

<configuration>

<property>

<name>hive.metastore.uris</name>

<value>thrift://node2:9083</value>

</property>

</configuration>

不需要更新到其他的节点,只需要在客户端有一份hive-site.xml就可以

2、开启Hive的metaStore服务 hive --service metastore 以metastore启动hive

假如启动不了,可以cd ~到家目录下 创建一个vim startHiveMetastoreService.sh

source ~/.bashrc

hive --service metastore > /data/metastore.log 2>&1 &

记得创建:/data/metastore.log

./startHiveMetastoreService.sh启动

3、在spark的bin目录下启动spark sql: ./spark-shell --master spark://node1:7077 --total-executor-cores 3

4、import org.apache.spark.sql.hive.HiveContext

val hc = new HiveContext(sc) //new hive链接对象

hc.sql("show databases").show

hc.sql("use result").show

设置日志级别:sc.setLogLevel("INFO")

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值