hive对kerberos认证

最近再开发中现场环境使用了kerberos,在读取hive库的数据时需要先进行认证。具体的认证步骤如下。

1.需要如下东西 krb5.conf(配置文件) , user.keytab(秘钥文件)、username(登录名)

2.做如下设置

org.apache.hadoop.conf.Configuration configuration = new org.apache.hadoop.conf.Configuration();
configuration.set("hadoop.security.authentication", "Kerberos");
configuration.set("keytab.file", "D:\\MyJavaProject\\javakit\\conf\\user.keytab");
configuration.set("kerberos.principal", "hive/hadoop.hadoop.com@HADOOP.COM");
System.setProperty("java.security.krb5.conf", "D:\\MyJavaProject\\javakit\\conf\\krb5.conf");
UserGroupInformation.setConfiguration(conf);
UserGroupInformation.loginUserFromKeytab("xxxx(登录名)", "D:\\MyJavaProject\\javakit\\conf\\user.keytab");

3.使用jdbc读取hive数据

// 创建hive连接
Class.forName("org.apache.hive.jdbc.HiveDriver");
Class.forName("org.apache.hive.jdbc.HiveDriver");
Connection connection = DriverManager.getConnection("jdbc:hive2://ip:端口/库名;principal=hive/hadoop.hadoop.com@HADOOP.COM;sasl.qop=auth-conf");
String sql2 = " select  id from  表名";
PreparedStatement show_tables = connection.prepareStatement(sql2);
ResultSet resultSet = show_tables.executeQuery();
 while (resultSet.next()){
 resultSet.getObject(1);
}

使用了kerberos后数据库的用户名密码就没有意义了,只需要秘钥就好

4.kerberos认证24小时过期问题,可以开启一个线程周期执行认证就好

ScheduledThreadPoolExecutor scheduled = new ScheduledThreadPoolExecutor(1);
scheduled.scheduleAtFixedRate(()->{
            LOG.info("kerberos认证:"+ new SimpleDateFormat("yyyy-MM-dd HH:mm:ss").format(new Date()));
            org.apache.hadoop.conf.Configuration configuration = new org.apache.hadoop.conf.Configuration();
configuration.set("hadoop.security.authentication", "Kerberos");
configuration.set("keytab.file", "D:\\MyJavaProject\\javakit\\conf\\user.keytab");
configuration.set("kerberos.principal", "hive/hadoop.hadoop.com@HADOOP.COM");
System.setProperty("java.security.krb5.conf", "D:\\MyJavaProject\\javakit\\conf\\krb5.conf");
UserGroupInformation.setConfiguration(conf);
UserGroupInformation.loginUserFromKeytab("xxxx(登录名)", "D:\\MyJavaProject\\javakit\\conf\\user.keytab");
        },0,20,TimeUnit.HOURS);  // 每20个小时执行一次

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Hive 中启用 Kerberos 认证需要在 Hadoop 和 Hive 中进行相应的配置。以下是一些大致的步骤: 1. 在 Hadoop 的 core-site.xml 中添加以下属性: ``` <property> <name>hadoop.security.authentication</name> <value>kerberos</value> </property> ``` 2. 在 Hadoop 的 hdfs-site.xml 中添加以下属性: ``` <property> <name>dfs.namenode.kerberos.principal</name> <value>hdfs/_HOST@EXAMPLE.COM</value> </property> <property> <name>dfs.datanode.kerberos.principal</name> <value>hdfs/_HOST@EXAMPLE.COM</value> </property> ``` 3. 在 Hadoop 的 yarn-site.xml 中添加以下属性: ``` <property> <name>yarn.resourcemanager.principal</name> <value>yarn/_HOST@EXAMPLE.COM</value> </property> <property> <name>yarn.nodemanager.principal</name> <value>yarn/_HOST@EXAMPLE.COM</value> </property> ``` 4. 在 Hivehive-site.xml 中添加以下属性: ``` <property> <name>hive.metastore.sasl.enabled</name> <value>true</value> </property> <property> <name>hive.metastore.kerberos.keytab.file</name> <value>/path/to/hive.keytab</value> </property> <property> <name>hive.metastore.kerberos.principal</name> <value>hive/_HOST@EXAMPLE.COM</value> </property> ``` 其中,`hive.metastore.kerberos.keytab.file` 指定的是 Hive 的 keytab 文件路径,`hive.metastore.kerberos.principal` 指定的是 Hive 的 principal 名称。 5. 在启动 Hive 的时候,需要使用以下命令来启动 Kerberos 认证: ``` kinit -kt /path/to/hive.keytab hive/_HOST@EXAMPLE.COM ``` 这个命令将会使用指定的 keytab 文件和 principal 来获取 Kerberos 的 ticket。在 ticket 过期之前,你可以使用这个 ticket 来访问 Hive。 以上是 Hive 配置 Kerberos 认证的大致步骤,具体的配置可能因环境不同而有所不同。如果你遇到了问题,可以参考官方文档或者咨询相关的技术支持。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值