scala 连接oracle_Spark2.4.0 访问hive(集成kerberos)(scala)

本文介绍了如何在Spark2.4.0中使用Scala进行Kerberos认证,通过设置keytab文件路径并加载,然后展示了访问Hive的代码示例,以及所需的Maven依赖。主要涉及KerberosAuth1类的实现,以及SparkSession配置以连接Hive并执行SQL查询。
摘要由CSDN通过智能技术生成

Spark2.4.0(scala)

1.kerberso 认证(需要将相应用户的keytab文件引入本地)

代码如下:

class KerberosAuth1 {

def kerberosAuth(debug: Boolean): Unit = {

try {

System.setProperty("java.security.krb5.conf", "D:\\cdh\\spark\\src\\main\\kerberos\\krb5.conf")

// System.setProperty("java.security.krb5.conf","/lvm/data3/zhc/krb5.conf");

System.setProperty("javax.security.auth.useSubjectCredsOnly", "false")

if (debug) System.setProperty("sun.security.krb5.debug", "true")

UserGroupInformation.loginUserFromKeytab("gree2@GREE.IO", "D:\\cdh\\spark\\src\\main\\kerberos\\gree2.keytab")

// UserGroupInformation.loginUserFromKeytab("gree1@GREE.IO", "/lvm/data3/zhc/gree1.keytab");

System.out.println(UserGroupInformation.getCurrentUser)

} catch {

case e: Exception =>

e.printStackTrace()

}

}

}

2.maven 依赖

org.apache.hadoop

hadoop-client

3.0.0-cdh6.3.0

org.apache.hadoop

hadoop-common

3.0.0-cdh6.3.0

org.apache.spark

spark-hive_2.11

2.4.0-cdh6.3.0

compile

3.代码访问

main

object SparkTest {

def main(args: Array[String]): Unit = {

new KerberosAuth1().kerberosAuth(false);

val sparkSession = SparkSession.builder().appName("spark2Test")

// .config("spark.sql.warehouse.dir","/user/hive/warehouse")

.master("local[*]").enableHiveSupport.getOrCreate()

sparkSession.sql("select name from test.test").show()

// sparkSession.sql("show tables").show()

// sparkSession.sql("select name from default.linetest ").show()

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值