hive jdbc权限不够_如何解决spark hive 权限不够的问题

在尝试使用 Spark 操作 Hive 时遇到了权限不足的异常,错误信息显示在创建临时文件时发生此问题。为了解决这个问题,需要检查和调整相关目录的权限设置,确保 Spark 和 Hive 用户具有足够的权限来创建和访问文件。这可能涉及到修改 HDFS 目录的权限或者调整 Unix 文件系统的权限。具体解决方案包括但不限于修改 Hive Metastore 的相关配置,例如设置 tmp 目录的权限,或者为执行用户分配适当的 UNIX 组。
摘要由CSDN通过智能技术生成

spark操作hive出现异常如下:

19/09/16 09:58:27 INFO metastore: Connected to metastore.

19/09/16 09:58:28 INFO SessionState: Created HDFS directory: /tmp/hive/root/9ad612d6-a6a1-4f80-be2c-fdc87e0a2a0c

19/09/16 09:58:28 INFO SessionState: Created local directory: /opt/hadoop/data/hive/iotmp/9ad612d6-a6a1-4f80-be2c-fdc87e0a2a0c

19/09/16 09:58:28 INFO SessionState: Created HDFS directory: /tmp/hive/root/9ad612d6-a6a1-4f80-be2c-fdc87e0a2a0c/_tmp_space.db

org.apache.spark.sql.AnalysisException: java.lang.RuntimeException: java.lang.RuntimeException: java.io.IOException: 权限不够;

at org.apache.spark.sql.hive.HiveExternalCatalog.withClient(HiveExternalCatalog.scala:106)

at org.apache.spark.sql.hive.HiveExternalCatalog.databaseExists(HiveExternalCatalog.scala:194)

at org.apache.spark.sql.internal.SharedState.externalCatalog$lzycompute(SharedState.scala:114)

at org.apache.spark.sql.inter

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值