spark操作Hbase出现cannot access its superclass com.google.protobuf.LiteralByteString异常解决

转载来自:https://www.iteblog.com/archives/1866.html

最近写了一个Spark程序用来读取Hbase中的数据,我的Spark版本是1.6.1,Hbase版本是0.96.2-hadoop2,当程序写完之后,使用下面命令提交作业:

[iteblog@www.iteblog.com $] bin/spark-submit --master yarn-cluster  --executor-memory 4g --num-executors  5  --queue iteblog --executor-cores 2  --class com.iteblog.hbase.HBaseRead --jars spark-hbase-connector_2.10-1.0.3.jar,hbase-common-0.96.2-hadoop2.jar,hbase-server-0.96.2-hadoop2.jar,hbase-client-0.96.2-hadoop2.jar,hbase-protocol-0.96.2-hadoop2.jar,htrace-core-2.04.jar,guava-15.0.jar spark-iteblog-1.0-SNAPSHOT.jar

结果作业运行的时候出现了以下异常

16/11/03 09:45:05 ERROR ApplicationMaster: User class threw exception: org.apache.hadoop.hbase.DoNotRetryIOException: java.lang.IllegalAccessError: class com.google.protobuf.HBaseZeroCopyByteString cannot access its superclass com.google.protobuf.LiteralByteString

org.apache.hadoop.hbase.DoNotRetryIOException: java.lang.IllegalAccessError: class com.google.protobuf.HBaseZeroCopyByteString cannot access its superclass com.google.protobuf.LiteralByteString

  at org.apache.hadoop.hbase.client.RpcRetryingCaller.translateException(RpcRetryingCaller.java:215)

  at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:127)

  at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:96)

  at org.apache.hadoop.hbase.client.ClientScanner.nextScanner(ClientScanner.java:264)

  at org.apache.hadoop.hbase.client.ClientScanner.initializeScannerInConstruction(ClientScanner.java:169)

  at org.apache.hadoop.hbase.client.ClientScanner.<init>(ClientScanner.java:164)

  at org.apache.hadoop.hbase.client.ClientScanner.<init>(ClientScanner.java:107)

  at org.apache.hadoop.hbase.client.HTable.getScanner(HTable.java:720)

  at org.apache.hadoop.hbase.client.MetaScanner.metaScan(MetaScanner.java:174)

  at org.apache.hadoop.hbase.client.MetaScanner.metaScan(MetaScanner.java:82)

  at org.apache.hadoop.hbase.client.HConnectionManager$HConnectionImplementation.isTableAvailable(HConnectionManager.java:911)

  at org.apache.hadoop.hbase.client.HBaseAdmin.isTableAvailable(HBaseAdmin.java:1074)

  at org.apache.hadoop.hbase.client.HBaseAdmin.isTableAvailable(HBaseAdmin.java:1082)

  at com.iteblog.hbase.HBaseRead$.main(HBaseRead.scala:29)

  at com.iteblog.hbase.HBaseRead.main(HBaseRead.scala)

  at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

  at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)

  at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)

  at java.lang.reflect.Method.invoke(Method.java:606)

  at org.apache.spark.deploy.yarn.ApplicationMaster$$anon$2.run(ApplicationMaster.scala:542)

Caused by: java.lang.IllegalAccessError: class com.google.protobuf.HBaseZeroCopyByteString cannot access its superclass com.google.protobuf.LiteralByteString

  at java.lang.ClassLoader.defineClass1(Native Method)

  at java.lang.ClassLoader.defineClass(ClassLoader.java:800)

  at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)

  at java.net.URLClassLoader.defineClass(URLClassLoader.java:449)

  at java.net.URLClassLoader.access$100(URLClassLoader.java:71)

  at java.net.URLClassLoader$1.run(URLClassLoader.java:361)

  at java.net.URLClassLoader$1.run(URLClassLoader.java:355)

  at java.security.AccessController.doPrivileged(Native Method)

  at java.net.URLClassLoader.findClass(URLClassLoader.java:354)

  at java.lang.ClassLoader.loadClass(ClassLoader.java:425)

  at java.lang.ClassLoader.loadClass(ClassLoader.java:358)

  at org.apache.hadoop.hbase.protobuf.RequestConverter.buildRegionSpecifier(RequestConverter.java:910)

  at org.apache.hadoop.hbase.protobuf.RequestConverter.buildScanRequest(RequestConverter.java:420)

  at org.apache.hadoop.hbase.client.ScannerCallable.openScanner(ScannerCallable.java:297)

  at org.apache.hadoop.hbase.client.ScannerCallable.call(ScannerCallable.java:157)

  at org.apache.hadoop.hbase.client.ScannerCallable.call(ScannerCallable.java:57)

  at org.apache.hadoop.hbase.client.RpcRetryingCaller.callWithRetries(RpcRetryingCaller.java:120)

  ... 18 more

Google了一下发现这是由于Hbase的Bug导致的(可以参见https://issues.apache.org/jira/browse/HBASE-10304),这个问题的发生是由于优化了 HBASE-9867 (https://issues.apache.org/jira/browse/HBASE-9867)引起的,无意间引进了一个依赖类加载器。它影响使用 -libjars 参数和使用 fat jar两种模式的job,官方对这个Bug的描述:

This is caused by an optimization introduced in HBASE-9867 that inadvertently introduced a classloader dependency.This affects both jobs using the -libjars option and "fat jar," those which package their runtime dependencies in a nested lib folder.

这个Bug影响了 0.96.1 到 0.98.4版本的HBase。对于这个问题的解决,我们可以在运行作业的时候加入比较新的 hbase-protocol jar包到环境变量里面。具体来说如下:

Spark作业解决

如果你是Spark作业,可以通过下面的方法解决上面的问题:

[iteblog@www.iteblog.com ~]$ bin/spark-submit --master yarn-cluster --executor-memory 4g --num-executors  5  --queue iteblog --executor-cores 2 --class com.iteblog.hbase.HBaseRead --jars spark-hbase-connector_2.10-1.0.3.jar,hbase-common-0.98.6-hadoop2.jar,hbase-server-0.98.6-hadoop2.jar,hbase-client-0.98.6-hadoop2.jar,hbase-protocol-0.98.6-hadoop2.jar,htrace-core-2.04.jar,guava-15.0.jar --conf "spark.driver.extraClassPath=/home/iteblog/hbase-protocol-0.98.6-hadoop2.jar"  --conf "spark.executor.extraClassPath=/home/iteblog/hbase-protocol-0.98.6-hadoop2.jar" spark-iteblog-1.0-SNAPSHOT.jar

上面通过 spark.driver.extraClassPath 和 spark.executor.extraClassPath 分别在Spark作业的Driver和Exectuor端的环境变量里面引入了 hbase-protocol-0.98.6-hadoop2.jar 包。注意,需要把所有hbase-xxx的jar包都换成0.98.x以后的,否则还是会有上述异常问题。当然,如果你觉得上面比较麻烦,你可以把上面的 --conf 配置写入到 $SPARK_HOME/conf/spark-defaults.conf 文件里面,这样就不需要再在提交作业的时候加上了。

Mapreduce作业解决

如果你是在Mapreduce作业中遇到上面的异常,可以通过设置 HADOOP_CLASSPATH 环境变量解决上面的问题,如下:

[iteblog@www.iteblog.com ~]$ export HADOOP_CLASSPATH="/home/iteblog/hbase-protocol-0.98.6-hadoop2.jar"

[iteblog@www.iteblog.com ~]$ bin/hadoop --config /home/stack/conf_hadoop/ jar /home/iteblog/hbase-protocol-0.98.6-hadoop2.jar  org.apache.hadoop.hbase.mapreduce.RowCounter hbaseTable

 

以上是作者的实践,根据作者提供的信息,下面是我的一些具体操作:

(1)版本:hadoop2.3.0-cdh5.3.1,hbase0.98..1-cdh5.1.3,jdk1.7(1.8也行,试过,对hadoop没影响,修改hadoop-env.sh),scala2.11.8,spark2.1.3-hadoop2.3

(2)解决过程:找了很多办法,都是说在spark-defaults.conf中指定:

spark.driver.extraClassPath  /opt/beh/core/hbase/lib/hbase-protocol-0.98.1-cdh5.1.3.jar 
spark.executor.extraClassPath /opt/beh/core/hbase/lib/hbase-protocol-0.98.1-cdh5.1.3.jar

但是对我的情况没有帮助,仍然报同样的错误。

最后找到了本篇文章主人的做法,确认了一件事,这个错是hbase的一个bug,(我的程序虽然报错,但是结果是对的)

然后我就按照他说的下载了hbase-0.98.6-hadoop2-bin.tar.gz,找到里面的lib下的hbase-*.jar,替换掉我的eclipse中的所有hbase0.98..1-cdh5.1.3的hbase-*.jar包,然后再次提交运行程序,解决了这个问题,再次感谢本篇博客的主人的帮助。

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值