Spark集群提交方式及zeppelin环境配置

本文介绍了如何配置Spark Zeppelin环境,包括设置JAVA_HOME, SPARK_HOME和HADOOP_CONF_DIR。同时,详细讲解了不同提交方式,如在Spark集群中以cluster模式提交和使用YARN的client及集群模式。还展示了使用Scala创建WordCount应用程序并提交到YARN集群的示例。" 99303464,8745157,Go-Spring:Go 语言中的 Spring 风格框架,"['后端开发', 'Go', 'Spring', '框架', '依赖管理']
摘要由CSDN通过智能技术生成

Spark zeppelin环境配置:
export JAVA_HOME=/opt/install/jdk
export SPARK_HOME=/opt/install/spark
export HADOOP_CONF_DIR=/opt/install/hadoop/etc/hodoop
zeppelin:
val users=spark.read.options(Map(“inferSchema”->“true”,“delimiter”->",",“header”->“true”)).csv("/events/users/users.csv")
集群提交:
#在spark的home下提交:Driver在集群中的某个worker上启动,启动application

bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://nodetwo:7077 --deploy-mode cluster ./examples/jars/spark-examples_2.11-2.2.0.jar 1000

##在spark的home下运行:
bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://nodetwo:7077 ./examples/jars/spark-examples_2.11-2.2.0.jar 100

#yarn的clent默认
bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn ./examples/jars/spark-examples_2.11-2.2.0.jar 1000

#yarn的集群模式
bin/spark-submit --class

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值