Spark job jar包冲突解决方案

最近在spark上部署程序使用logback发送日志到graylog2的过程中,碰到异常:

java.lang.UnsatisfiedLinkError: org.xerial.snappy.SnappyNative.uncompressedLength(Ljava/lang/Object;II)I
	at org.xerial.snappy.SnappyNative.uncompressedLength(Native Method)
	at org.xerial.snappy.Snappy.uncompressedLength(Snappy.java:541)
	at org.xerial.snappy.SnappyInputStream.hasNextChunk(SnappyInputStream.java:350)
	at org.xerial.snappy.SnappyInputStream.rawRead(SnappyInputStream.java:158)
	at org.xerial.snappy.SnappyInputStream.read(SnappyInputStream.java:142)
	at com.esotericsoftware.kryo.io.Input.fill(Input.java:140)
	at com.esotericsoftware.kryo.io.Input.require(Input.java:155)
	at com.esotericsoftware.kryo.io.Input.readInt(Input.java:337)
	at com.esotericsoftware.kryo.util.DefaultClassResolver.readClass(DefaultClassResolver.java:109)
	at com.esotericsoftware.kryo.Kryo.readClass(Kryo.java:610)
	at com.esotericsoftware.kryo.Kryo.readClassAndObject(Kryo.java:721)
	at org.apache.spark.serializer.KryoDeserializationStream.readObject(KryoSerializer.scala:228)
	at org.apache.spark.broadcast.TorrentBroadcast$.unBlockifyObject(TorrentBroadcast.scala:217)
	at org.apache.spark.broadcast.TorrentBroadcast$$anonfun$readBroadcastBlock$1.apply(TorrentBroadcast.scala:178)
	at org.apache.spark.util.Utils$.tryOrIOException(Utils.scala:1206)
	at org.apache.spark.broadcast.TorrentBroadcast.readBroadcastBlock(TorrentBroadcast.scala:165)
	at org.apache.spark.broadcast.TorrentBroadcast._value$lzycompute(TorrentBroadcast.scala:64)
	at org.apache.spark.broadcast.TorrentBroadcast._value(TorrentBroadcast.scala:64)
	at org.apache.spark.broadcast.TorrentBroadcast.getValue(TorrentBroadcast.scala:88)
	at org.apache.spark.broadcast.Broadcast.value(Broadcast.scala:70)
	at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:62)
	at org.apache.spark.scheduler.Task.run(Task.scala:89)
	at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:242)
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
	at java.lang.Thread.run(Thread.java:748)

另外一个异常:

java.lang.UnsatisfiedLinkError: org.xerial.snappy.SnappyNative.maxCompressedLength(I)I
	at org.xerial.snappy.SnappyNative.maxCompressedLength(Native Method)
	at org.xerial.snappy.Snappy.maxCompressedLength(Snappy.java:316)
	at org.xerial.snappy.SnappyOutputStream.<init>(SnappyOutputStream.java:79)
	at org.apache.spark.io.SnappyCompressionCodec.compressedOutputStream(CompressionCodec.scala:156)
	at org.apache.spark.broadcast.TorrentBroadcast$$anonfun$4.apply(TorrentBroadcast.scala:200)
	at org.apache.spark.broadcast.TorrentBroadcast$$anonfun$4.apply(TorrentBroadcast.scala:200)
	at scala.Option.map(Option.scala:145)
	at org.apache.spark.broadcast.TorrentBroadcast$.blockifyObject(TorrentBroadcast.scala:200)
	at org.apache.spark.broadcast.TorrentBroadcast.writeBlocks(TorrentBroadcast.scala:102)
	at org.apache.spark.broadcast.TorrentBroadcast.<init>(TorrentBroadcast.scala:85)
	at org.apache.spark.broadcast.TorrentBroadcastFactory.newBroadcast(TorrentBroadcastFactory.scala:34)
	at org.apache.spark.broadcast.BroadcastManager.newBroadcast(BroadcastManager.scala:63)
	at org.apache.spark.SparkContext.broadcast(SparkContext.scala:1334)

 

问题原因:

应用程序使用到的snappy-java版本是1.1.1.6,但是默认加载的spark系统默认的包

CDH-5.10.2-1.cdh5.10.2.p0.5/lib/hadoop/lib/snappy-java-1.0.4.1.jar

在1.0.4.1包里没有相应的方法,所以报错。

 

TIPS:

查看具体使用的是哪个版本方法:spark-submit 的时候添加

--driver-java-options -verbose:class

 

解决方法:

spark-submit的时候添加:

--jars yourSnappyJar   \
--conf "spark.driver.extraClassPath=snappy-java-version.jar" \
--conf "spark.executor.extraClassPath=snappy-java-version.jar" \

使用spark.{driver,executor}.extraClassPath显示的把需要引用的包加入到类路径的最前面,这样就解决了spark classpath和user classpath里有相同包冲突的问题。

 

参考文献2的方法也能解决问题,但是修改了spark的全局环境,容易引起其他应用错误,故不推荐。

spark 的包依赖关系总结,请移步:https://blog.csdn.net/adorechen/article/details/80110272#summary

 

参考文献:

https://github.com/broadinstitute/gatk/issues/1873

http://community.cloudera.com/t5/Advanced-Analytics-Apache-Spark/Override-libraries-for-spark/td-p/32125

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Spark和Flink都是大数据处理框架,它们的jar包依赖不同。Spark的依赖包括Scala、Hadoop、Akka等,而Flink的依赖包括Scala、Hadoop、Netty等。在使用这些框架时,需要根据具体的需求选择相应的依赖包,并将其添加到项目中。同时,还需要注意依赖包的版本兼容性,以避免出现不兼容的情况。 ### 回答2: Spark和Flink都是流行的大数据处理框架,它们都支持在作业执行期间使用外部的jar包。 对于Spark,可以通过以下几种方式添加jar包依赖: 1. 通过命令行使用--jars参数来指定jar包的路径。例如:`spark-submit --class mainClassName --jars path/to/dependency.jar application.jar`。在这种方法中,所有的依赖jar包都会被自动分发到集群中的每个工作节点,供Spark作业使用。 2. 在代码中使用`SparkContext`的`addJar`方法来添加jar包依赖。例如:`sparkContext.addJar("path/to/dependency.jar")`。这个方法会将依赖jar包分发给集群中的每个工作节点,供Spark作业使用。 对于Flink,可以使用以下几种方式添加jar包依赖: 1. 在代码中通过`env.registerExternalLibrary`方法注册待使用的jar包。例如:`env.registerExternalLibrary("path/to/dependency.jar")`。这样注册后,Flink作业在提交和运行时会将依赖的jar包自动分发到集群中。 2. 在Flink的作业配置文件中使用`pipeline.classpaths`属性来指定jar包的路径。例如:`pipeline.classpaths: ["path/to/dependency.jar"]`。Flink在运行作业时会将指定的jar包自动分发到集群中的每个任务运行实例。 以上是Spark和Flink中添加jar包依赖的常用方法,通过这些方法可以将外部的jar包导入到框架的运行环境中,以供作业使用。 ### 回答3: Spark和Flink是两个常用的大数据处理框架,它们可以用来处理大规模数据集和流式数据。在使用这两个框架时,我们需要将项目打包成一个可执行的jar包,并在提交任务时依赖所需的库文件。 对于Sparkjar包依赖,我们需要在构建项目时定义所需的依赖项,可以使用Maven或者其他构建工具来管理依赖关系。在pom.xml文件中添加相应的依赖项,例如Spark Core、Spark SQL、Spark Streaming等。在打包项目时,构建工具会把这些依赖项打包进生成的jar包中,以便在集群上执行时可以访问到这些依赖库。 对于Flink的jar包依赖,也需要在构建项目时定义相关的依赖项。与Spark类似,可以使用Maven或其他构建工具来管理依赖关系。在pom.xml文件中添加Flink的核心依赖以及其他需要使用的模块,如Flink SQL、Flink Streaming等。在打包时,依赖项会被打包到生成的jar包中,以便在集群中执行时可以访问到所需的依赖库。 在提交作业时,无论是Spark还是Flink,都需要指定相关的jar包路径,以告知框架要加载的依赖库。可以通过命令行参数或者在代码中设置相应的参数来指定依赖库的路径。框架会根据这些信息在集群中进行作业的执行,保证所需的依赖库可用。 总结来说,无论是Spark还是Flink,jar包依赖都需要在构建项目时定义,并在打包时将依赖库打包到生成的jar包中。在提交作业时,需要指定相关的依赖路径,以确保集群中可以加载到所需的依赖库。这样可以保证在分布式环境中使用Spark和Flink时,能够顺利地执行大数据处理任务。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值