Java系列:登陆Kerberos认证的HDFS集群,并实现往hdfs指定目录写入文件
Hadoop集群采用了Kerberos认证,要使用Java访问HDFS、Hive或其他组件时,需要先进行认证登陆,才可以访问hdfs或者hive,才能实现往hdfs指定目录写入文件。
一、application.properties中指定登陆Kerberos认证的HDFS集群所需的信息
- Hadoop集群名称
- hadoop集群的core-site.xml配置文件
- hadoop集群的hdfs-site.xml配置文件
- Kerberos配置文件krb5.conf
- 指定kerberos认证过的用户
- 指定用户使用的keytab文件名,用户使用keytab认证登陆HDFS集群
ClusterName: hdfs://optics-cdh
corePath: /project/learn/src/mai
这篇博客详细介绍了如何使用Java进行Kerberos认证,连接到HDFS集群,并实现将文件写入指定目录的过程。内容包括在`application.properties`配置登陆信息,添加相关依赖,设置Kerberos登陆与Hadoop集群信息,以及完整的实现代码和文件检查。
订阅专栏 解锁全文
640

被折叠的 条评论
为什么被折叠?



