spark-on-hive环境,hive-on-spark环境配置

本文介绍了如何配置Spark-on-Hive和Hive-on-Spark环境,强调了无论哪种情况,都必须配置Hive的metastore服务。主要内容包括将MySQL JDBC驱动添加到Spark的jars目录,更新spark-env.sh文件,并将hive-site.xml从Hive的conf目录复制到Spark的conf目录。
摘要由CSDN通过智能技术生成

不管是on-hive还是on-spark,都需要配置hive得metastore服务

①配置hive

<property>
    <name>hive.server2.thrift.port</name>
     <value>10000</value>
</property>

    	<property>
       		<name>hive.server2.thrift.bind.host</name>
       		<value>localhost</value>
     	</property>

 <property>
            <name>hive.metastore.uris</name>
            <value>thrift://localhost:9083</value>
          </property>
		

启动:

nohup  hive --service metastore &
nohup  hive --service hiveserver2 &

spark-on-hive:

spark中如果不配置hive环境是无法读取hive表数据的,如下配置:

①如果你的hive元数据存在mysql,把mysql-connector-java-8.0.18.jar复制到spark的jars中

②在spark的spark-env.sh中添加:

export HIVE_HOME=/root/bigdata/hive-2.3.6
export HIVE_CONF_DIR=${HIVE_HOME}/conf
e
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值