报错信息:
Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException
(Failed to create Spark client for Spark session eb29e13d-ce70-46e8-bbd3-2aa5c78402b5)
FAILED: Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask.
Failed to create Spark client for Spark session eb29e13d-ce70-46e8-bbd3-2aa5c78402b5
在网上搜了半天 导致此处报错的原因:
(1) hive和spark的版本不匹配
此图为两者的版本对照
(2)配置文件中的参数有误
俺就是这个问题,spark中的conf/目录下的spark-env.sh 不正确
当初搭建阿里云时疯狂装各种软件,粗心大意落下了 ,可把我害惨了,留下这篇小文章记录一下自己的愚蠢