Spark集成Hive

  1. 复制core-site.xml(hdfs) + hdfs-site.xml(hdfs) + hive-site.xml(hive)三个文件
    到spark/conf下。

  2. 复制mysql驱动程序到/spark/jars下

  3. 测试:

    #启动spark-shell
    spark-shell
    
    #测试
    spark.sql("show databases").show();
    
  4. 附加:

如果要在idea中使用spark操作hive,需要将

#复制配置文件到resources目录下
core-site.xml
hdfs-site.xml
hive-site.xml

如果spark集成hive:
在spark中执行hive的查询语句,会出现版本不一致的错误:
解决办法1:
在hvie-site.xml中关闭版本验证(本人使用的)

<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>

解决办法2:

    <property>
		<name>hive.metastore.uris</name>
		<value>thrift://master:9083</value>
		<description>None</description>
	</property>

欢迎关注我的动态

欢迎关注我的个人博客网站www.liuzhaopo.top

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值