Spark安装

1.安装scala

下载scala

 
 
  1. cd /usr/local/yujianxin/spark/
  2. tar -zxvf scala-2.9.3.tgz

加入环境变量

 
 
  1. vi /etc/profile

2.安装spark

用的spark版本是spark-1.2.0-bin-hadoop2.4 
hadoop版本是2.5.2,spark-1.2.0-bin-hadoop2.4 这个版本也兼容hadoop2.5.2

 
 
  1. wget http://d3kbcqa49mib13.cloudfront.net/spark-1.2.0-bin-hadoop2.4.tgz
  2. tar -xvzf spark-1.2.0-bin-hadoop2.4.tgz

3.配置

 
 
  1. cd conf
  2. cp spark-env.sh.template spark-env.sh

修改配合spark-env.sh

 
 
  1. vi spark-env.sh

 
修改配置文件slaves

 
 
  1. cp slaves.templates slaves
  2. vi slaves

 
至此,master节点上的Spark已配置完毕。 把master上Spark相关配置copy到slave1、 slave2中,注意,三台机器spark所在目录必须一致,因为master会登陆到worker上执行命令,master认为worker的spark路径与自己一样

4.测试

测试1,通过命令行

 
 
  1. start-all.sh

 


测试2.通过浏览器

Spark安装成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值