一个项目的集群部署了多个spark版本,和java版本,最开始提交任务一直与所指定的spark版本不一致,
使用2.3目录下的spark-submit, 但是日志却显示是2.1。
后面分析发现,应该是环境变量的问题, 手动在spark-submit脚本前增加export 相关环境变量,得到想要的结果。
过程中有报以下等错误:
Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/Logger
Exception in thread "main" java. lang. NoSuchFieldError: DEFAULT MAPREDUCE APPLICATION CLASSPATE
下面这个文章比较有用
https://www.cnblogs.com/chenzechao/p/10204263.html