spark集群安装部署测试(高可用)

spark集群安装部署测试(高可用)

1、下载解压安装包

官网:http://spark.apache.org/downloads.html

2、修改配置文件在conf目录下

salves.template spark-env.sh.template
mv salves.template salves
mv spark-env.sh.template spark-env.sh

vi spark-env.sh
export JAVA_HOME=/bigdata/jdk1.8
export SPARK_MASTER_HOST=spark01
export SPARK_MASTER_PORT=7077

vi salves
从节点

3、将安装包传到其他节点并启动

通过 scp 指令传文件
启动脚本在sbin目录下
start-all.sh 启动所有
start-master.sh 启动主节点
管理界面 主节点ip:8080

4、高可用配置

vi spark-env.sh
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=spark01:2181,spark02:2181,spark03:2181 -Dspark.deploy.zookeeper.dir=/spark"
#指定工作的内核数,内存大小
export SPARK_WORKER_CORES=4
export SPARK_WORKER_MEMORY=1g

另一个master需要单独启动

5、运行一个spark自带的测试用例(求π)

bin/spark-submit --master spark://spark01:7077 --class org.apache.spark.examples.SparkPi examples/jars/spark-examples_2.11-2.4.5.jar 100
定制化运行指定内核数和内存大小
bin/spark-submit --master spark://spark01:7077 --class org.apache.spark.examples.SparkPi –executor-memory 512mb –total-executor-cores 6 examples/jars/spark-examples_2.11-2.4.5.jar 100

–executor-memory 每个executor用多少内存

6、spark shell(交互式命令行,可以写spark程序,方便学习和测试,也是一个客户端,用于提交spark程序)

bin/spark-shell 没有指定master,用的是本地模式
bin/spark-shell --master spark://spark01:7077,spark02:7077 集群模式

7、Wordcount程序 sc(spark core)

sc.textFile(“hdfs://spark01:9000/wc”).flatMap(.split(" ")).map((, 1)).reduceByKey(+).collect
sc.textFile(“hdfs://spark01:9000/wc”).flatMap(.split(" ")).map((, 1)).reduceByKey(+).sortBy(_._2,false).collect 排序

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值