背景
由于项目需要,需要把数据写入大数据平台的HDFS,大数据平台使用kerberos认证,且做了HA。由于之前没有使用过这种场景,在网上找了一圈,并且踩了几个坑,终于搞定。以下是代码和注释。
代码
public Configuration getConfig() throws Exception { // 设置java安全krb5配置,根据实际情况配置 System.setProperty("java.security.krb5.realm", "HADOOP.COM"); System.setProperty("java.security.krb5.kdc", "10.218.22.12"); System.setProperty("java.security.krb5.conf", "/etc/krb5.conf"); Configuration conf = new Configuration(); //以下是hadoop相关配置,需要参考hdfs-site.xml配置文件 conf.set("fs.defaultFS", "hdfs://hdpnm2"); conf.set("dfs.nameservices", "hdpnm2"); conf.set("dfs.ha.namenodes.hdpnm2", "nm1,nm2"); conf.set("dfs.namenode.rpc-address.hdpnm2.nm1", "namenode01"); conf.set("dfs.namenode.rpc-address.hdpnm2.nm2