Spark应用如何访问带Kerberos认证的CDH Hadoop集群

本文介绍如何配置Spark以访问Kerberos认证的Hadoop集群。通过使用YARN客户端模式部署Spark集群,可以解决Standalone模式下无法访问认证Hadoop的问题。文章详细说明了配置步骤及spark-submit命令参数调整。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

我用的是 Spark Standalone集群,当运行kinit命令导入证书,并把CDH Hadoop集群的配置文件放入spark/conf/目录后,提交应用发现还是无法访问CDH Hadoop。

后来查了下官网资料,貌似Standalone模式的Spark集群不支持访问Kerberos认证的Hadoop,我们可以使用Yarn Client模式管理的的Spark集群。

假设你的Hadoop集群是带Kerberos认证的,则你需要部署Hadoop(以2.4.0为例)集群;

注意,不需要创建hdfs, 只是用Hadoop安装包中的 sbin/start-yarn.sh来启动YARN集群。在这个YARN集群里同样部署一个Spark集群。具体步骤就不写了。

提交Spark应用时,注意 --master参数的变化:   spark-submit  --master yarn-client   ...

最后发现Spark应用可以通过Kerberos认证。


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值