spark代码idea、yarn、standalone模式运行

1.idea上运行

val conf = new SparkConf().setAppName("SparkRDDWordCount")
      .setMaster("local[*]")   //设置本地模式,用尽可能多的cpu

2.yarn
yarn模式分client客户端模式和cluster集群模式
测试可以用client模式
生产环境用cluster模式

yarn模式运行spark,可以不用启动spark集群。这是与standalone模式的一个区别。
还有查看运行的日志端口不同,yarn是在8088端口
http://node01:8088/cluster

// yarn+cluter 模式
bin/spark-submit \
--class org.example.WordCount \
--master yarn \        // yarn模式提交
--deploy-mode cluster \    //cluster模式
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
./examples/jars/spark_submit-1.0-SNAPSHOT.jar
// yarn+client 模式
bin/spark-submit \
--class org.example.WordCount \
--master yarn \        // yarn模式提交
--deploy-mode client \    //client模式
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
./examples/jars/spark_submit-1.0-SNAPSHOT.jar

3.standalone模式
需要启动spark集群,用的是spark自己的资源调度系统。
standalone的提交命令与yarn不同的是 --master 后面的参数不一样,其他一样
查看运行日志http://node01:8080

// standalone+cluter 模式
bin/spark-submit \
--class org.example.WordCount \
--master spark://node01:7077 \      // spark的集群地址
--deploy-mode cluster \    //cluster模式
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
./examples/jars/spark_submit-1.0-SNAPSHOT.jar
// standalone+client 模式
bin/spark-submit \
--class org.example.WordCount \
--master spark://node01:7077 \      // spark的集群地址
--deploy-mode client \    //cluster模式
--driver-memory 1g \
--executor-memory 1g \
--executor-cores 1 \
./examples/jars/spark_submit-1.0-SNAPSHOT.jar
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值