cdh开启sentry之后,hive on spark报错,网上的方法试了一遍都没有解决我的问题,经过一番摸索,最终解决。
报错日志:
ERROR : FAILED: Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create Spark client for Spark session 2b98a332-72e0-4917-9357-5c1799e4a3ae_1: java.lang.RuntimeException: spark-submit process failed with exit code 1 and error ?
解决办法:
将hive在hdfs上的数据目录(默认为/user/hive)所属用户和组递归改为为hive:hive,权限为771
网上其他方法:
- 版本不匹配
一般情况下不会出现,之前在HDP上遇到过,换了版本好了,但这种方法不太好,而且很麻烦。 - yarn 资源配置问题
保证spark executor的内存和overhead的内存相加小于yarn对容器可分配的内存,一般情况下都是小于的,除非你手动改过配置 - spark服务没有启动
这个就不说了,面壁反思吧 - 配置有问题
如果你是安装的apache的话,这个配置是比较麻烦的,可以参考hive官网上面的相关配置
如果还未解决,可以重新跑个任务,然后从hiveserver2.log中仔细寻找蛛丝马迹,一定要一行一行的看。