深入理解Java GSS(含kerberos认证及在hadoop、flink案例场景举例)

01 引言

在当今的信息安全环境下,保护敏感数据和网络资源的安全至关重要。Kerberos认证协议作为一种强大的网络身份验证解决方案,被广泛应用于许多大型分布式系统中,如:Hadoop。而Java GSSGeneric Security Services)作为Java提供的通用安全服务,与Kerberos认证密切相关。

本文将探讨Java GSSKerberos认证的基本原理,以及它们之间的关系,同时介绍如何在Hadoop中应用Kerberos认证。

02 Java GSS 简介

详细的导读可以参考:https://www.baeldung.com/java-gss

Java GSS:是Java提供的一套用于网络安全的通用安全服务,它为Java应用程序提供了一致的、独立于底层安全机制的编程接口


Java GSS 的主要目标:简化网络安全编程,并提供与各种安全机制的集成能力


其中,它支持各种常见的安全机制,如 Kerberos 、SSL/TLS和数字证书 等,下图展示了GSS-API 与其内容的关系:

在这里插入图片描述
先简单了解kerberos认证的基本原理。

2.1 Kerberos认证基本原理

可以参考之前我写的博客:https://blog.csdn.net/qq_20042935/article/details/131281618

Kerberos是一个基于票据的身份验证协议,它通过使用共享密钥加密的票据进行认证和授权。


Kerberos认证协议的核心是Kerberos服务器(KDC)和客户端之间的相互信任,下面是Kerberos认证的基本流程:

  • step1:客户端发送身份请求给KDC;
  • step2:KDC验证客户端的身份,并生成一个票据授权给客户端;
  • step3:客户端使用票据请求服务票据授权;
  • step4:KDC验证客户端的请求,并生成一个服务票据授权给客户端;
  • step5:客户端将服务票据授权发送给服务端;
  • step6:服务端验证票据并向客户端发送一个加密的会话密钥;
  • step7:客户端和服务端使用会话密钥进行通信。

2.2 Kerberos在Java GSS中的应用

Java GSS提供了一种使用Kerberos认证协议进行安全通信的方式,它通过Java GSS-API提供了对Kerberos协议的封装和支持,简化了开发者使用Kerberos进行身份验证和安全通信的过程。


Java GSS提供了以下关键功能:

  • GSSContext:用于建立和管理安全上下文,支持与Kerberos服务器进行交互;
  • GSSCredential:用于表示和管理Kerberos凭证,包括Keytab文件和Principal
  • GSSName:用于表示和管理Kerberos中的主体。

Java GSSKerberos的密切关系在于Java GSS为开发者提供了一种简单而强大的方式来集成和使用Kerberos认证协议,实现安全的网络通信。 以下是相关的核心代码示例:

import javax.security.auth.Subject;
import javax.security.auth.login.Configuration;
import javax.security.auth.login.LoginContext;
import javax.security.auth.login.LoginException;
import org.ietf.jgss.*;

public class GSSDemo {
    public static void main(String[] args) {
        try {
            // 设置Kerberos配置文件路径
            System.setProperty("java.security.krb5.conf", "/path/to/krb5.conf");

            // 创建一个LoginContext来进行Kerberos认证
            LoginContext loginContext = new LoginContext("KerberosClient", null, null, new CustomConfiguration());

            // 执行Kerberos认证
            loginContext.login();

            // 从Subject中获取GSSCredential
            Subject subject = loginContext.getSubject();
            GSSCredential credential = subject.getPrivateCredentials(GSSCredential.class).iterator().next();

            // 创建一个GSSManager实例
            GSSManager gssManager = GSSManager.getInstance();

            // 创建一个GSSName,表示Kerberos中的主体
            GSSName serverName = gssManager.createName("HTTP/server.example.com", GSSName.NT_HOSTBASED_SERVICE);

            // 创建一个GSSContext,用于建立和管理安全上下文
            GSSContext context = gssManager.createContext(serverName, GSSCredential.DEFAULT_LIFETIME, credential, GSSContext.DEFAULT_LIFETIME);

            // 建立安全上下文
            byte[] token = new byte[0];
            while (!context.isEstablished()) {
                token = context.initSecContext(token, 0, token.length);
            }

            // 获取建立的安全上下文的信息
            String contextInfo = context.toString();

            // 输出安全上下文信息
            System.out.println("安全上下文已建立:" + contextInfo);

            // 完成Kerberos认证后,执行其他操作
            // ...

            // 登出
            loginContext.logout();
        } catch (LoginException | GSSException e) {
            e.printStackTrace();
        }
    }

    static class CustomConfiguration extends Configuration {
        @Override
        public AppConfigurationEntry[] getAppConfigurationEntry(String name) {
            HashMap<String, String> options = new HashMap<>();
            options.put("keyTab", "/path/to/user.keytab");
            options.put("principal", "user@example.com");
            options.put("useKeyTab", "true");
            options.put("storeKey", "true");
            options.put("doNotPrompt", "true");
            options.put("isInitiator", "true");
            options.put("refreshKrb5Config", "true");
            options.put("renewTGT", "true");
            options.put("useTicketCache", "true");
            options.put("ticketCache", "/tmp/krb5cc_" + getUid());

            return new AppConfigurationEntry[]{
                    new AppConfigurationEntry("com.sun.security.auth.module.Krb5LoginModule",
                            AppConfigurationEntry.LoginModuleControlFlag.REQUIRED, options)
            };
        }

        private String getUid() {
            try {
                return new ProcessBuilder("id", "-u").start().getInputStream().readAllBytes().toString().trim();
            } catch (IOException e) {
                e.printStackTrace();
                return "0";
            }
        }
    }
}

03 应用

3.1 在hadoop中的应用

直接上代码,这里当然有更简单的方式,为了清楚的说明流程,所以写的比较啰嗦。下面展示了在完成Kerberos认证后,执行访问Hadoop HDFS的操作的代码片段:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import javax.security.auth.Subject;
import javax.security.auth.login.Configuration;
import javax.security.auth.login.LoginContext;
import javax.security.auth.login.LoginException;
import org.ietf.jgss.*;

public class GSSDemo {
    public static void main(String[] args) {
        try {
            // 设置Kerberos配置文件路径
            System.setProperty("java.security.krb5.conf", "/path/to/krb5.conf");

            // 创建一个LoginContext来进行Kerberos认证
            LoginContext loginContext = new LoginContext("KerberosClient", null, null, new CustomConfiguration());

            // 执行Kerberos认证
            loginContext.login();

            // 从Subject中获取GSSCredential
            Subject subject = loginContext.getSubject();
            GSSCredential credential = subject.getPrivateCredentials(GSSCredential.class).iterator().next();

            // 创建一个GSSManager实例
            GSSManager gssManager = GSSManager.getInstance();

            // 创建一个GSSName,表示Kerberos中的主体
            GSSName serverName = gssManager.createName("HTTP/server.example.com", GSSName.NT_HOSTBASED_SERVICE);

            // 创建一个GSSContext,用于建立和管理安全上下文
            GSSContext context = gssManager.createContext(serverName, GSSCredential.DEFAULT_LIFETIME, credential, GSSContext.DEFAULT_LIFETIME);

            // 建立安全上下文
            byte[] token = new byte[0];
            while (!context.isEstablished()) {
                token = context.initSecContext(token, 0, token.length);
            }

            // 获取建立的安全上下文的信息
            String contextInfo = context.toString();

            // 输出安全上下文信息
            System.out.println("安全上下文已建立:" + contextInfo);

            // 完成Kerberos认证后,执行其他操作

            // 配置Hadoop文件系统
            Configuration hadoopConf = new Configuration();
            hadoopConf.addResource(new Path("/path/to/core-site.xml"));
            hadoopConf.addResource(new Path("/path/to/hdfs-site.xml"));

            // 登录Kerberos
            org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(subject);

            // 创建Hadoop文件系统对象
            FileSystem fs = FileSystem.get(hadoopConf);

            // 执行HDFS操作
            Path path = new Path("/user/example");
            if (fs.exists(path)) {
                System.out.println("目录已存在");
            } else {
                fs.mkdirs(path);
                System.out.println("目录创建成功");
            }

            // 登出
            loginContext.logout();
        } catch (LoginException | GSSException | IOException e) {
            e.printStackTrace();
        }
    }
}

static class CustomConfiguration extends Configuration {
        @Override
        public AppConfigurationEntry[] getAppConfigurationEntry(String name) {
            HashMap<String, String> options = new HashMap<>();
            options.put("keyTab", "/path/to/user.keytab");
            options.put("principal", "user@example.com");
            options.put("useKeyTab", "true");
            options.put("storeKey", "true");
            options.put("doNotPrompt", "true");
            options.put("isInitiator", "true");
            options.put("refreshKrb5Config", "true");
            options.put("renewTGT", "true");
            options.put("useTicketCache", "true");
            options.put("ticketCache", "/tmp/krb5cc_" + getUid());

            return new AppConfigurationEntry[]{
                    new AppConfigurationEntry("com.sun.security.auth.module.Krb5LoginModule",
                            AppConfigurationEntry.LoginModuleControlFlag.REQUIRED, options)
            };
        }

        private String getUid() {
            try {
                return new ProcessBuilder("id", "-u").start().getInputStream().readAllBytes().toString().trim();
            } catch (IOException e) {
                e.printStackTrace();
                return "0";
            }
        }
    }

从上述代码中,不难发现,其实Hadoop包里面的UserGroupInfomation底层就是使用了Java GSS,其核心代码片段如下:
在这里插入图片描述

3.2 在Flink中的应用

如果部署Flink作业采用Flink On yarn的模式,Hadoop开启了kerberos认证,也是需要配置kerberos信息的,具体配置flink-conf.yaml文件就可以了,具体配置如下信息:
在这里插入图片描述
直接跳到flink核心的源码:
在这里插入图片描述

上述完整流程就是:首先用户输入flink命令 => 脚本解析 => 进入CliFronted.main方法 => 接着执行了SecurityUtils.install方法 => 最后走到HadoopModule,使用UserGroupInfomation去做登录,而UserGroupInfomation底层就是使用Java Gss去做登录认证的

3.3 小结

从上述的代码可以看出,Java GSS在Hadoop和Flink中,其实他们彼此都有联系的:

  • Hadoop中,UserGroupInformationHadoop中处理用户身份验证、权限管理和安全上下文的关键组件之一;
  • UserGroupInformation负责处理Kerberos的凭证管理和身份验证;
  • UserGroupInformation的底层代码是由Java GSS实现的;
  • Flink On Yarn模式最终部署逻辑,底层也是使用到了UserGroupInformation这个类。

04 文末

本文主要主要围绕Java GSSKerberosUserGroupInformation 这三个核心知识点进行了讲解,希望能帮助到大家,谢谢大家的阅读,本文完!

<think> 我们面临的核心问题:在单个Java程序中同时连接两个Hadoop集群,一个使用Kerberos认证,另一个使用Simple认证(即无需Kerberos认证)。由于Hadoop的安全认证机制是基于全局配置的(通过`UserGroupInformation`类),直接切换认证方式会遇到冲突。 ### 解决方案思路 1. **隔离配置**:为每个集群创建独立的`Configuration`对象,避免配置交叉污染。 2. **线程安全**:使用`UserGroupInformation`的`doAs`方法在特定上下文中执行Kerberos认证操作。 3. **非Kerberos集群连接**:确保在连接Simple认证集群时不触发Kerberos认证。 ### 具体实现步骤 #### 1. 连接Kerberos认证集群 - 加载Kerberos配置(krb5.conf) - 设置Hadoop配置为Kerberos模式 - 使用keytab文件登录 #### 2. 连接Simple认证集群 - 使用独立的配置对象,不设置Kerberos相关属性 - 确保当前线程没有绑定Kerberos凭证 #### 3. 关键技巧:线程隔离 - 每个连接操作应该在独立的`UserGroupInformation`上下文中执行 - 对于Simple认证,使用`UserGroupInformation.createRemoteUser`创建一个虚拟用户 ### 代码实现 ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.security.UserGroupInformation; import java.io.IOException; import java.net.URI; public class MultiHadoopConnector { // 连接Kerberos认证集群 public FileSystem connectToKerberosCluster(String uri, String krb5ConfPath, String principal, String keytabPath) throws IOException { // 设置Kerberos配置文件位置 System.setProperty("java.security.krb5.conf", krb5ConfPath); // 创建独立的配置对象 Configuration conf = new Configuration(); conf.set("hadoop.security.authentication", "kerberos"); // 其他集群相关配置(如core-site.xml, hdfs-site.xml等) // conf.addResource(...); // 应用配置 UserGroupInformation.setConfiguration(conf); // 使用keytab登录 UserGroupInformation.loginUserFromKeytab(principal, keytabPath); // 获取文件系统 return FileSystem.get(URI.create(uri), conf); } // 连接Simple认证集群 public FileSystem connectToSimpleCluster(String uri) throws IOException { // 创建独立的配置对象(不设置Kerberos相关属性) Configuration conf = new Configuration(); // 注意:这里不设置hadoop.security.authentication,或者设置为simple conf.set("hadoop.security.authentication", "simple"); // 其他集群相关配置 // conf.addResource(...); // 关键:创建一个虚拟的远程用户(无Kerberos凭证) UserGroupInformation ugi = UserGroupInformation.createRemoteUser("simpleuser"); // 在指定的用户上下文中执行 return ugi.doAs(new PrivilegedExceptionAction<FileSystem>() { @Override public FileSystem run() throws Exception { return FileSystem.get(URI.create(uri), conf); } }); } } ``` ### 注意事项 1. **配置隔离**:每个集群的配置(如core-site.xml, hdfs-site.xml)应通过`conf.addResource`方法分别加载,避免互相覆盖。 2. **线程安全**:由于`UserGroupInformation`有静态全局状态,在多线程环境下,建议使用`UserGroupInformation.doAs`来限定操作的作用域。 3. **Simple认证集群的用户名**:在`createRemoteUser`中指定的用户名(如"simpleuser")需要根据集群的实际权限进行调整。 4. **异常处理**:代码中省略了异常处理,实际应用中需要添加。 5. **资源清理**:使用完毕后,应调用`fs.close()`释放资源。 ### 原理说明 - **Kerberos连接**:通过`loginUserFromKeytab`登录后,当前线程会绑定一个认证过的用户,用于后续操作。 - **Simple连接**:通过`createRemoteUser`创建一个无认证用户,并通过`doAs`方法在一个新的安全上下文中执行连接操作,这样就不会受到Kerberos认证的影响。 ### 相关问题 1. 如何在同一程序内同时维持多个不同安全认证Hadoop连接? 2. 使用`UserGroupInformation.doAs`方法时有哪些权限控制注意事项? 3. 连接Kerberos集群时出现`GSS initiate failed`错误应如何排查? 4. Hadoop的Simple认证模式下如何进行权限管理? ### 引用说明 本解决方案参考了Hadoop的安全认证机制和多集群连接的最佳实践[^1][^2][^3]。 </think> # Java连接Kerberos与Simple认证Hadoop集群解决方案 ## 核心挑战分析 在单个Java应用中同时连接Kerberos认证和Simple认证Hadoop集群时,主要面临两个关键技术挑战: 1. **认证机制冲突**:Hadoop的`UserGroupInformation`(UGI)类使用静态全局配置,无法同时支持两种认证模式 2. **线程安全问题**:多线程环境下认证上下文切换可能导致凭证污染和连接失败 ## 完整解决方案 ### 1. 连接Kerberos认证集群的实现 ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.security.UserGroupInformation; public FileSystem getKerberosHdfs(String uri, String krb5confPath, String principal, String keytabPath) throws IOException { // 设置Kerberos配置文件 System.setProperty("java.security.krb5.conf", krb5confPath); Configuration conf = new Configuration(); conf.set("hadoop.security.authentication", "kerberos"); conf.set("hadoop.security.authorization", "true"); // 加载集群配置文件 conf.addResource(new Path("/path/to/core-site.xml")); conf.addResource(new Path("/path/to/hdfs-site.xml")); // 初始化Kerberos认证 UserGroupInformation.setConfiguration(conf); UserGroupInformation.loginUserFromKeytab(principal, keytabPath); return FileSystem.get(URI.create(uri), conf); } ``` ### 2. 连接Simple认证集群的实现 ```java public FileSystem getSimpleHdfs(String uri) throws IOException { Configuration conf = new Configuration(); // 重置认证为Simple模式 conf.unset("hadoop.security.authentication"); conf.unset("hadoop.security.authorization"); // 确保使用Simple认证 UserGroupInformation.setConfiguration(conf); UserGroupInformation.reset(); // 加载集群配置文件 conf.addResource(new Path("/path/to/other-core-site.xml")); conf.addResource(new Path("/path/to/other-hdfs-site.xml")); return FileSystem.get(URI.create(uri), conf); } ``` ### 3. 多线程安全访问封装类 ```java import java.util.concurrent.Callable; public class SecureHdfsExecutor { private final FileSystem kerberosFs; private final FileSystem simpleFs; public SecureHdfsExecutor(String kerberosUri, String simpleUri) throws IOException { this.kerberosFs = getKerberosHdfs(kerberosUri, ...); this.simpleFs = getSimpleHdfs(simpleUri); } public <T> T executeKerberosAction(Callable<T> action) throws Exception { return UserGroupInformation.createRemoteUser("kerberos_user") .doAs((PrivilegedExceptionAction<T>) action::call); } public <T> T executeSimpleAction(Callable<T> action) throws Exception { // 切换到Simple上下文 UserGroupInformation.setConfiguration(new Configuration()); UserGroupInformation.reset(); return action.call(); } } ``` ## 关键实现要点 1. **认证上下文隔离** - 使用`UserGroupInformation.reset()`清除Kerberos凭证 - 为每个集群创建独立的`Configuration`对象 ```java // Kerberos集群配置 Configuration kerbConf = new Configuration(); kerbConf.set("hadoop.security.authentication", "kerberos"); // Simple集群配置 Configuration simpleConf = new Configuration(); simpleConf.unset("hadoop.security.authentication"); ``` 2. **线程安全处理** ```java // 使用doAs方法隔离安全上下文 UserGroupInformation kerbUser = UserGroupInformation.createProxyUser( "proxy_user", UserGroupInformation.getLoginUser()); return kerbUser.doAs((PrivilegedExceptionAction<FileSystem>) () -> FileSystem.get(kerberosUri, kerbConf)); ``` 3. **配置管理** - 为每个集群单独加载配置文件 ```java // Kerberos集群 kerbConf.addResource(new Path("/etc/hadoop/kerb-core-site.xml")); // Simple集群 simpleConf.addResource(new Path("/etc/hadoop/simple-core-site.xml")); ``` ## 常见问题解决方案 1. **认证切换失败** ```bash Caused by: org.apache.hadoop.security.AccessControlException ``` **解决方法**:确保在连接Simple集群前调用: ```java UserGroupInformation.reset(); System.setProperty("java.security.krb5.conf", ""); // 清空Kerberos配置 ``` 2. **连接Kerberos集群时报错** ```bash GSS initiate failed [Caused by GSSException: No valid credentials provided] ``` **解决方法**:检查keytab文件和principal匹配性: ```java // 验证keytab有效性 KerberosUtil.checkKeytab(principal, keytabPath); ``` ## 性能优化建议 1. **连接池管理**:对每个集群使用单独的连接池 ```java // Kerberos连接池 private static final GenericObjectPool<FileSystem> kerbPool = new GenericObjectPool<>(new KerberosFsFactory()); // Simple连接池 private static final GenericObjectPool<FileSystem> simplePool = new GenericObjectPool<>(new SimpleFsFactory()); ``` 2. **配置文件缓存**:减少重复加载开销 ```java private static final Configuration kerbBaseConf = createBaseConfig("kerb"); private static final Configuration simpleBaseConf = createBaseConfig("simple"); ``` ## 相关问题 1. 如何验证Kerberos票据是否有效? 2. Simple认证模式下如何实现权限控制? 3. Hadoop连接池的最佳配置参数是什么? 4. 跨集群数据迁移时如何保持认证上下文? 5. 如何监控双集群连接的性能指标? > 本解决方案基于Hadoop的安全认证模型实现,实现了两种认证模式的隔离访问[^1][^2][^3]。实际部署时需根据具体集群配置调整参数。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值