saprk submit 无法执行HDFS上的jar

突发奇想的第一篇博文!(其实最主要的新买的键盘,想打字=-=)

还不知道写点神马呐,但在技术论坛,光发感想的话,是不是有点违和。

而且好久不写东西,感觉自己一肚子话,无从说起。。。想当年我也是偏偏作文当范文,还喜欢舞文弄墨的伪文青啊!

就写写这两天刚刚遇到的一个小坑吧


我的spark是standalone集群方式

使用spark submit命令发布spark任务时,把jar放到本地的可以正常执行;命令:

saprk-submit --class SparkStreamingDemo --master local[8]  
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark核心执行流程如下: 1. 客户端通过SparkSubmit提交作业(Job)到Spark集群的Master节点。 2. Master节点接收到作业请求后,将作业分发到集群中的Worker节点上。Worker节点是真正执行计算任务的节点。 3. Worker节点根据作业中的指令,将数据从HDFS或其他数据源中读取到内存中,然后开始执行计算任务。 4. Worker节点将计算结果返回给Master节点,Master节点根据结果进行整合和输出。 使用SparkSubmit在客户端提交job后如何通过Standalone模式获取资源并执行Spark任务计算,具体步骤如下: 1. 编写Spark应用程序代码,并将其打包成JAR包。 2. 在客户端上使用SparkSubmit提交作业到Standalone模式的Master节点上。 3. Master节点接收到作业请求后,将作业分发到集群中的Worker节点上。 4. Worker节点根据作业中的指令,从HDFS或其他数据源中读取数据到内存中,开始执行计算任务。 5. Worker节点将计算结果返回给Master节点。 6. Master节点根据结果进行整合和输出。 在Standalone模式下,Worker节点会从Master节点获取资源(CPU和内存),然后使用这些资源执行计算任务。在SparkSubmit提交作业时,可以通过命令行参数指定资源需求和分配方式,例如: ``` ./bin/spark-submit \ --class com.example.MyApp \ --master spark://<master-ip>:7077 \ --deploy-mode client \ --executor-memory 2g \ --total-executor-cores 4 \ myApp.jar ``` 其中,--executor-memory指定每个Executor节点的内存大小,--total-executor-cores指定所有Executor节点的CPU核心数。这些参数会被Standalone模式的Master节点用来为Worker节点分配资源。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值