最近在使用spark读取hbase时,因为hadoop集群配置了kerberos,所以必须通过票据进行访问,但是在实际使用时却出现了挂死问题,任何操作(GET,PUT,SCAN)都会长时间阻塞,最后抛出socket超时异常。经过调试,非spark程序中使用没问题,进而确定了票据和配置方法没有问题,通过深入排查,发现spark-submit进程内也是没有问题的,只有当任务分发出去后,也就是在executor进程中才会出现。
通过查阅spark executor的源代码,发现其中的SparkHadoopUtil.scala中用到了如下代码
def runAsSparkUser(func: () => Unit) {
val user = Utils.getCurrentUserName()
logDebug("running as user: " + user)
val ugi = UserGroupInformation.createRemoteUser(user)
transferCredentials(UserGroupInformation.getCurrentUser(), ugi)
ugi.doAs(new PrivilegedExceptionAction[Unit] {
def run: Unit = func()
})
}
spark的executor进程本身已经通过doAs做过一次用户的设置了,于是只能对访问hbase kerberos的方式进行修改。
修改方式如下,以前的配置方法不变,调用loginUserFromKeytabAndReturnUGI返回ugi,调用ugi的doAs,在其中创建hbase的链接。
ugi = UserGroupInformation.loginUserFromKeytabAndReturnUGI("xxx", keyStr);
_conn = ugi.doAs(new PrivilegedAction<Connection>(){
@Override
public Connection run() {
// TODO Auto-generated method stub
try {
return ConnectionFactory.createConnection(conf);
} catch (IOException e) {
e.printStackTrace();
}
return null;
}
});
该修改方法应该也对yarn模式下出现的此情况有效。