一,spark jar包加载顺序
- 1,SystemClasspath – Spark安装时候提供的依赖包,通常是spark home目录下的jars文件夹 【SystemClassPath】
- 2,Spark-submit --jars 提交的依赖包 【UserClassPath】
- 3,Spark-submit app.jar或者shadowJar打的jar 【UserClassPath】
二,jar包冲突解决
spark-submit时出现如下错误:
这个代码在本地跑是不报错的,放到服务器上就报错了。猜测是jar包冲突。冲突的类是com/google/common/base/CaseFormat
使用如下命令在spark jars目录下查找包含这个类的jar包:
find /usr/local/service/spark/jars/ -name "*.jar" -exec grep -Hls "com/google/common/base/CaseFormat" {} \;
结果:
发现在spark安装目录下有guava-14包,而我pom依赖的是更高版本的包:
解决方案
最简单最粗暴的方式是替换jar包,但这样是不合理的,因为spark本身依赖的低版本,直接替换为高版本会导致spark本身报错。
下面两种方法可以解决:
① spark.{driver/executor}.userClassPathFirst
指定优先加载user jar包
② 明确指定要使用的jar包版本
--conf "spark.driver.extraClassPath=snappy-java-version.jar" \
--conf "spark.executor.extraClassPath=snappy-java-version.jar" \
demo :
/usr/local/service/spark/bin/spark-submit --master yarn --jars ./jars/guava-29.0-jre.jar --conf "spark.executor.extraClassPath=guava-29.0-jre.jar" --class com.asinking.app.inventorycenter.cost.LtReportApp /home/hadoop/costcenter/fich-1.0.jar
完美解决。