Spark脚本提交/运行/部署

1、Spark脚本提交/运行/部署

 

1.1  spark-shell(交互窗口模式)

运行spark-shell需要指向申请资源的standalone spark集群信息,其参数为MASTER,还可以指定executor及driver的内存大小。

sudo spark-shell --executor-memory 5g --driver-memory1g --master spark://192.168.180.216:7077

spark-shell启动完后,可以在交互窗口中输入scala命令,进行操作,其中spark-shell已经默认生成sc对象,可以用:

val user_rdd1 = sc.textFile(inputpath, 10)

读取数据资源等。

 

1.2  spark-shell(脚本运行模式)

上面方法需要在交互窗口中一条一条的输入scala程序;将scala程序保存在test.scala文件中,可以通过以下命令一次运行该文件中的程序代码:

sudo spark-shell --executor-memory 5g --driver-memory1g --master spark://192.168.180.216:7077 < test.scala

运行后会自动进入spark-shell交互窗口并且运行test.scala中的程序,运行完成后,会自动退出spark-shell。

 

如果程序退出终端后,linux终端失效,可以试试:stty echo 命令

 

1.3  spark-submit (程序部署)

Spark提供了一个容易上手的应用程序部署工具bin/spark-submit,可以完成Spark应用程序在local、Standalone、YARN、Mesos上的快捷部署。可以指定集群资源master,executor/ driver的内存资源等。

sudo spark-submit --masterspark://192.168.180.216:7077 --executor-memory 5g --class mypackage.test  workcount.jar  hdfs://192.168.180.79:9000/user/input.txt

 

workcount .scala 代码打包workcount.jar,并将文件需要上传到spark的安装目录下面;

hdfs://192.168.180.79:9000/user/input.txt为输入参数; 

 

转载请注明出处:

http://blog.csdn.net/sunbow0/article/details/42099331  
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值