将自己编写的的jar包放到本地或Spark standalone上运行;设置每个Spark application运行的资源

本地运行jar包

将自己的jar包上传到Linux中
运行Spark的Master节点与Worker节点
在Spark目录下运行以下命令

bin/spark-submit \
--class com.huadian.bigdata.spark.core.TrackLogAnalyseSpark \
spark-learning-1.0-SNAPSHOT.jar \
local[2]

结果

在这里插入图片描述

Spark standalone上运行自定义jar包

bin/spark-submit \
--master spark://bigdata-hpsk01.huadian.com:7077 \
--class com.huadian.bigdata.spark.core.TrackLogAnalyseSpark \
spark-learning-1.0-SNAPSHOT.jar \
spark://bigdata-hpsk01.huadian.com:7077

结果

结果将不在控制台输出
在这里插入图片描述
结果输出在日志文件中
在这里插入图片描述

设置每个Spark application运行的资源

bin/spark-submit \
--master spark://bigdata-hpsk01.huadian.com:7077 \
--class com.huadian.bigdata.spark.core.TrackLogAnalyseSpark \
--executor-cores 1 \
--total-executor-cores 2 \
--driver-memory 512M \
--executor-memory 512M \
spark-learning-1.0-SNAPSHOT.jar \
spark://bigdata-hpsk01.huadian.com:7077

结果

可以看到有两个任务在同时跑一个任务
在这里插入图片描述
在这里插入图片描述

spark application运行的过程

回顾MapReduce程序运行在Yarn集群组成

-1.Application Master
	应用的管理者,负责资源的申请,task运行监控调度
-2.Task的运行
	MapTask和ReduceTask,都是运行在Nodemanager上Container容器中。

spark application运行在集群下,包含2部分

-1.Driver Program -JVM 进程
相当于AppMaster,应用的管理者,主要是调度job的执行
就是程序Main方法,必须创建sparkContext实例对象
端口号4040,提供应用的监控

-2.Executor s
每一个Executor是一个JVM进程,里面包含内存和CPU(可以理解为容器container),运行Task—相当于线程池
那么executor可以运行多少个tasks,就看有多少core

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

无名一小卒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值