解决hive on sparkExecution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTas

文章讲述了在Hadoop集群中,由于HDFS的NameNode状态问题导致SparkSession无法访问Spark的jar包,从而引发ExecutionError。解决方法是临时关闭非主NameNode,使主NameNode变为Active状态,以便访问集群资源。
摘要由CSDN通过智能技术生成

报错:

Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create Spark client for Spark session 

解析:我的集群是5个节点的,hive在节点1上安装,而节点2的hdfs状态为active,其他节点hdfs状态为standby,节点状态为standby是没法访问到集群资源的,如下图:

所以节点1的状态为standby的时候,在跑job的时候是访问不到hdfs上的spark的jar包的,所有就会报错。

解决方法:

除了节点1的namenode不关闭,其它节点的namenode都手动关闭,那么自动故障转移节点1的hdfs就会变成active,就能访问到集群资源,当节点1的namenode为active的时候在手动开启其它节点的namenode。

关闭namenode:

hdfs --daemon stop namenode

开启namenode:

hdfs --daemon start namenode

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值