GBASE 8A v953报错集锦58--Hadoop 启用 Kerberos 认证后加载导出失败

问题现象
现场 Hadoop 启用 Kerberos 认证后加载导出失败,报错:Get token operation
failed with error: No credentials cache found (filename:
/tmp/krb5cc_3000_gcluster/tkt), uri:
hdp://app_gbtoh@ip_xxx_xxx_xxx:50070/
解决方法:
Hadoop 启用 Kerberos 认证后加载出现问题,建议排查问题方法如下:
a) 先检查 8a 环境 gbase_hdfs_xxx 参数配置,没有发现明显问题
b) 建议现场先用 kinit 测试是否可以连接 kerberos 服务器,之后发现现场环境没
有安装 krb5-workstation 包
c)请现场安装 krb5-workstation 包,并检查 8a 节点 kerberos 库版本,确保
kerberos 版本号不低于 1.10
d) 建议现场使用 kinit 手工创建/tmp/krb5cc_3000_gcluster/tkt 文件,创建过程
中发现/tmp 下 krb5cc_3000_gcluster 目录已不存在,怀疑可能被某些工具或者人
工清理删除。
2)手工创建/tmp/krb5cc_3000_gcluster/tkt 后再次测试,报错:Get token
operation failed with error:Operation not permitted, uri:
hdp://app_gbtoh@ip_xxx_xxx_xxx:50070/...
a) 建议现场打开 trace 开关,调整 trace 级别到 5 以上,重试加载并查看
express.log 日志,现场反馈日志目录权限变化,无法输出 express.log,需要调整
后重试
b) 现 场 调 整 express.log 日 志 目 录 权 限 后 重 试 , 发 现 日 志 中 输 出 :
gss_init_sec_context() failed: Server HTTP/ip_xxx_xxx_xxx@PICC.COM not
found in kerberos database
c) 可以确定是加载的 URL 和 gbase_hdfs_namenodes 参数中使用了 ip 地址,但现
场的 hadoop 版本不支持 ip 地址,建议现场改用主机名后解决
3)现场测试 hadoop 导出,再次报错:Fail to create HDFS file
a) 建议现场打开 trace 开关,调整 trace 级别到 5 以上,重试加载并查看
express.log 日志
b) 发现 express.log 日志中输出:couldn't resolve host 'node07'
c) 确定'node07'为 datanode 节点,8a 集群节点的/etc/hosts 文件中缺少该
datanode 节点的 ip 地址,添加后问题解决
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值