Exception in thread “main“ org.apache.hadoop.security.AccessControlException: Permission denied: use

本文讲述了在Spark将数据写入Hive表时遇到的HDFS权限问题,由于本地用户缺少权限,解决方案是修改Hadoop的hdfs-site.xml配置文件,禁用HDFS权限检查,重启集群和Hive服务后问题得以解决。
摘要由CSDN通过智能技术生成

1.问题:spark往Hive表里写数据时,出现hdfs权限安全问题

2.原因:本地用户没有权限

2.解决方案:修改hdfs配置文件

进入Hadoop安装目录下修改 /etc/hadoop/hdfs-site.xml

添加如下配置信息

<property>
  <name>dfs.permissions</name>
  <value>false</value>
  <description>
    If "true", enable permission checking in HDFS.
    If "false", permission checking is turned off,
    but all other behavior is unchanged.
    Switching from one parameter value to the other does not change the mode,
    owner or group of files or directories.
  </description>
</property>

然后重启hdfs集群,重启Hive相关服务,重新运行即可

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值