spark-shell启动报错解决办法

spark-shell启动报错解决办法:
scala版本不兼容问题
这是因为加入了项目依赖库到/usr/cwgis/app/spark/jars/lib/中
删除相关的scala开头的jar文件即可启动spark-shell

[root@node111 ~]# runCmd.sh "rm /usr/cwgis/app/spark/jars/lib/scala*.jar" all

错误: 找不到或无法加载主类 org.apache.spark.deploy.yarn.ExecutorLauncher

SparkException: Yarn application has already ended! It might have been killed or unable to launch application master
spark1.0版本

[hadoop@localhost spark-1.0.1-bin-hadoop2]$<span style="color:#FF0000;"> export SPARK_JAR=lib/spark-assembly-1.0.1-hadoop2.2.0.jar 

spark other version

创建压缩jar文件方法:
生成一个spark-libs.jar文件,打包/spark/jars目录下所有jar文件和子目录jar文件

jar cv0f spark-libs.jar -C /usr/cwgis/app/spark/jars/ .

在spark-default.conf中设置 spark.yarn.archive=hdfs://mycluster:8020/spark/spark-libs.jar
或者 spark.yarn.jars=hdfs://mycluster:8020/spark/spark-libs.jar

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值