spark on yarn falling back to uploading libraries under SPARK_HOME.

问题

  • 在以yarn作为master启动sparkshell出现警告

原因

  • spark-shell底层是调用的spark-submit,每次运行时都会把yarn所需的spark jar打包上传至HDFS,然后分发到每个NM。

解决

  • 如果我们将jar包提前上传至HDFS,那么spark在运行时就不用上传,可以直接从HDFS读取了。

  1. 创建hdfs目录

hadoop fs -mkdir -p  /spark-yarn/jars
  1. 将jar包上传至hdfs目录

hadoop fs -put /soft/spark/jars/* /spark-yarn/jars/
  1. 在spark-default.conf文件中添加

spark.yarn.jars=hdfs://iZm5efuuoqohgx35d3zs4eZ:9000/spark-yarn/jars/*.jar

重新运行 spark-shell --master yarn-client

警告消失

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值