SparkSQL 与 Hive 如何整合?关键步骤有哪些?

根据原理,就是Spark能够连接上Hive的MetaStore就可以了。所以:

1.MetaStore需要存在并开机

2.Spark知道MetaStore在哪里(IP端口号)

SparkSQL 和 Hive整合关键四步骤

第一步:将hive-site.xml拷贝到spark安装路径conf目录

第二步:将mysql的连接驱动包拷贝到spark的jars目录下

第三步:Hive开启MetaStore服务

第四步:测试SparkSQL整合Hive是否成功

Spark on Hive原理和配置

第一步:将hive-site.xml拷贝到spark安装路径conf目录

node1执行以下命令来拷贝hive-site.xml到所有的spark安装服务器上面去

cd /export/server/hive/conf
cp hive-site.xml /export/server/spark/conf/
scp hive-site.xml root@node2:/export/server/spark/conf/
scp hive-site.xml root@node3:/export/server/spark/conf/

第二步:将mysql的连接驱动包拷贝到spark的jars目录下

node1执行以下命令将连接驱动包拷贝到spark的jars目录下,三台机器都要进行拷贝

cd /export/server/hive/lib
cp mysql-connector-java-5.1.32.jar  /export/server/spark/jars/
scp mysql-connec
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值