saprk submit 无法执行HDFS上的jar

这篇博客讲述了作者在Spark standalone集群中尝试通过spark submit执行存储在HDFS上的jar包时遇到的问题及官方解释。官方指出在standalone模式下不支持直接提交HDFS路径的jar,并建议使用本地路径或YARN模式。作者提供了两种解决方案:一是通过SSH将HDFS上的jar下载到服务器本地,二是设置HDFS与本地文件系统的映射。文章最后提到这个问题暴露出不同Spark部署模式之间的差异,并预告可能探讨这些模式的区别。
摘要由CSDN通过智能技术生成

突发奇想的第一篇博文!(其实最主要的新买的键盘,想打字=-=)

还不知道写点神马呐,但在技术论坛,光发感想的话,是不是有点违和。

而且好久不写东西,感觉自己一肚子话,无从说起。。。想当年我也是偏偏作文当范文,还喜欢舞文弄墨的伪文青啊!

就写写这两天刚刚遇到的一个小坑吧


我的spark是standalone集群方式

使用spark submit命令发布spark任务时,把jar放到本地的可以正常执行;命令:

saprk-submit --class SparkStreamingDemo --master local[8]  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值