Spark配置—Standlone模式

Step 1:
下载Spark版本:根据HDFS的版本进行下载,—–本文对应的是Spark 1.6.0 HDFS 2.6.0
http://spark.apache.org/downloads.html
这里写图片描述

Step 2:
在node11节点执行命令:

mkdir -p /opt/apps/spark
cd /opt/apps/spark

这里写图片描述

Step 3:
使用xftp将下载的spark包上传到上述路径
这里写图片描述

Step 4:
执行命令:

tar -xvf /opt/apps/spark/spark-1.6.0-bin-hadoop2.6.tgz

这里写图片描述

Step 5:
执行命令:

cp /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves.template /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves

这里写图片描述

Step 6:
执行命令:删除localhost,添加从节点

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/slaves

这里写图片描述

Step 7:
执行命令:

cp /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh.template /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

这里写图片描述

Step 8:
执行命令:

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/conf/spark-env.sh

在文件的最下面添加如下属性:

export JAVA_HOME=/usr/java/jdk1.7.0_79
export SPARK_MASTER_IP=node11
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=1g

这里写图片描述

Step 9:
分别在node12和node13上执行命令:

mkdir -p /opt/apps/spark
cd /opt/apps/spark

这里写图片描述
这里写图片描述

Step 10:
在node11执行命令,进行文件的分发

scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6 node12:/opt/apps/spark/
scp -r /opt/apps/spark/spark-1.6.0-bin-hadoop2.6 node13:/opt/apps/spark/

这里写图片描述
这里写图片描述

Step 11:
在node11节点上执行命令:

/opt/apps/spark/spark-1.6.0-bin-hadoop2.6/sbin/start-all.sh

这里写图片描述

Step 12:
分别在三个节点上执行命令:

jps

这里写图片描述
这里写图片描述
这里写图片描述

Step 13:
打开浏览器,输入

192.168.80.11:8080

这里写图片描述

Step 14:
在node11节点上执行命令,运行一个示例

cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://node11:7077 --executor-memory 1G --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100

得到PI的结果
这里写图片描述

Step 15:
写一个wordcount程序,达成jar包使用xftp上传到node11中某一个路径下
在node11上执行命令:

mkdir -p /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test
cd /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test

这里写图片描述

Step 16:
执行命令:

vi /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

这里写图片描述

Step 17:
在node11节点上执行命令:——当jar包和文件在节点上时

./bin/spark-submit --class spark.WorldCount --master spark://node11:7077 --executor-memory 1G --total-executor-cores 1 /usr/hadoopsoft/wc20161025.jar /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 18:
在node11节点上执行命令:——当jar包和文件在hdfs上

./bin/spark-submit --class spark.WorldCount  --master spark://node21:7077 --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  hdfs://node22:8020/data/text.txt

Step 19:
在node11节点上执行命令:——当jar包在hdfs上,文件在节点上

./bin/spark-submit --class spark.WorldCount --master spark://node21:7077 --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 20:
Cluster模式
jar包和文件都在本地节点上

./bin/spark-submit --class spark.WorldCount --master spark://node11:7077 --deploy-mode cluster --executor-memory 1G --total-executor-cores 1 /usr/hadoopsoft/wc20161025.jar /opt/apps/spark/spark-1.6.0-bin-hadoop2.6/test/test_word_count.txt

Step 21:
jar包和文件都在HDFS上

./bin/spark-submit --class spark.WorldCount  --master spark://node11:7077 --deploy-mode cluster --executor-memory 1G --total-executor-cores 1 hdfs://node22:8020/data/wc20161025.jar  hdfs://node22:8020/data/text.txt
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值