linux启动spark命令,在linux上安装spark

第一、通过xftp工具将spark安装包上传到linux上

第二、解压spark到指定目录:

tar -zxf /opt/software/spark-2.1.0-bin-hadoop2.7.tgz -C /opt/module/

第三、配置

1、在spark安装路径配置spark-env.sh,我的路径是/opt/module/spark-2.1.0-bin-hadoop2.7/conf

输入命令:vi spark-env.sh,如下

export JAVA_HOME=/root/training/jdk1.7.0_75(填自己的java_home配置路径)

export SPARK_MASTER_HOST=bigdata111(填自己的主节点)

export SPARK_MASTER_PORT=7077

00aa5d5377fafa19e1227f92f46320ed.png

2、在conf文件夹下配置slaves文件,

先输入命令:cp slaves.template slaves

再输入命令:vi slaves

然后添加自己的节点域名:

我的是:bigdata111

cccbe0e346acdbf46bc44665080404fe.png

8491871a60a5aa9b0c9fe156ff64a6ef.png

3.在sbin文件夹下用命令./start-all.sh启动spark,用jps命令查看进程

5b1af8134813062344ae80fbf5e580a0.png

4.进入bin文件夹下,输入./spark-shell --master spark://bigdata111:7077,显示如下,则表示spark的伪分布式搭建成功

818bb52ecedd06441735346dd32edc7f.png

5.配置完全分布式环境,首先修改conf文件夹下的slaves文件,我的是添加

bigdata111

bigdata112

bigdata113

482dec409fe3d28223e74ccea9b8b326.png

311a7d7db2b617a25bc8b2d4af6bc782.png

6.将配置好的虚拟机的配置信息复制到其他虚拟机的同名目录下

scp -r spark-2.1.0-bin-hadoop2.7/ root@bigdata112:/opt/module/

e99759ca11e75361f71460736c91fac4.png

7.在sbin文件夹下用命令./start-all.sh启动spark,用jps命令查看进程,也可以在浏览器上查看:

输入主节点:8080,显示如下,则表示spark完全分布式搭建成功。

ae236925e530960fe34cef3b575f913b.png

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值