Hive的执行引擎Tez、spark出现的问题

12 篇文章 2 订阅
5 篇文章 2 订阅

Hive on Tez中,切换成mr引擎出现以下问题:

hadoop版本为2.7.3

tez版本为0.9.1

因为tez安装目录中应该有hadoop-mapreduce-client-core、hadoop-mapreduce-client-common等jar,hadoop中也有hadoop-mapreduce-client-core、hadoop-mapreduce-client-common等jar,确认他们的版本是否相同,如果不同,会有这个问题;

解决:将tez低版本的jar替换成2.7.3版本即可。

这是我替换后的,重新进入即可。

Spark引擎报错

hive> set hive.execution.engine=spark;
hive> select count(*) from wyp;
Query ID = hdfs_20200902101245_96089374-8a76-48d7-8d14-7ac61315b8b6
Total jobs = 1
Launching Job 1 out of 1
In order to change the average load for a reducer (in bytes):
  set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
  set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
  set mapreduce.job.reduces=<number>
Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

解决方法

cd $SPARK_HOME/jars
rm -f hive-*
rm -rf spark-hive_*
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值