四、配置spark

进入spark的conf目录

[root@master conf]#cd /usr/cstor/spark/conf

 复制文件

 [root@master conf]# cp slaves.template slaves

 编辑配置文件,把文件里面的localhost删除

[root@master conf]# vim slaves

slave1

slave2

 复制文件

[root@master conf]# cp spark-env.sh.template spark-env.sh

 编写配置文件spark-env.sh,配置hadoop和jdk

[root@master conf]# vim spark-env.sh

 

 把文件分发给slave1 和slave2

[root@master conf]# scp -r /usr/cstor/spark/ root@slave1:/usr/cstor

[root@master conf]# scp -r /usr/cstor/spark/ root@slave2:/usr/cstor

 启动spark

[root@master conf]# sbin/start-all.sh

[root@master conf]# jps
327 NameNode
754 SecondaryNameNode
3040 Jps
557 DataNode
2791 Master
1539 HMaster

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wgq18586361686

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值