Maven安装编译Spark,搭建Spark独立集群模式(Hadoop架构之上)

首先,你的几台电脑都装好了Hadoop,如果要搭建Spark独立集群模式,则需要每台电脑都装上Spark。


一, 下载 Maven,Spark 压缩包

我是在主机Master下载了Maven,Spark 压缩包,

1)  Maven压缩包下载地址:点击打开链接

首先进入apache官网


点project,


点 Maven,


点Download,


2) Spark 压缩包地址:点击打开链接





hadoop@Master:~$ ssh -X Slave2

二, 解压 Maven 和 Spark 压缩包



三, 设置环境变量

hadoop@Slave2:~$ cd /etc
hadoop@Slave2:/etc$ sudo gedit environment 

SPARK_HOME=/home/hadoop/software/spark-2.3.0

M2_HOME=/home/hadoop/software/apache-maven-3.5.2

在PATH后面添加      :/home/hadoop/software/spark-2.3.0/bin:/home/hadoop/software/apache-maven-3.5.2/bin

(注意每个·路径用冒号隔开)

    电脑重启: 

hadoop@Slave2:sudo reboot

四, 设置Maven的虚拟机参数(以防止可能出现内存溢出)

export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M"

五, 用Maven安装编译Spark

mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.7.3  -DskipTests clean package

六,设置 /home/hadoop/software/spark-2.3.0/conf/里的  slaves文件,这个文件是slaves.template的副本,修改文件名。

Slave0
Slave1
Slave2


七,同步slaves文件到各个节点

在/home/hadoop/software/spark-2.3.0/conf/目录下执行:

/usr/local/sbin/xcp.sh slaves ~/software/spark-2.3.0/conf/

八, 启动spark集群

启动所有work的进程:

hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-master.sh
hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-slaves.sh

查看spark的web信息:  http://Master:8080

如果要启动单个节点,则:

 ./start-slave.sh spark://Slave1:7077
jps
./stop-slave.sh




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值