hadoop学习(四)--------升级为spark集群

我们在hadoop集群的基础上构建spark集群。


1.下载对应的spark版本

前面我们使用的hadoop1.2.1,所以要从spark网站下载对应的spark版本。

http://spark.apache.org/downloads.html

注意要选择pre-duild for Haddop 1.x版本,这样我们下载好的是对应hadoop版本编译好的spark版本。如果下载源码包,需要我们自己动手编译,比较复杂。



2.安装scala

这里下载的是scala2.11.6版本.spark源码用scala写成,所以要下载一个scala的编译器。

2.1建立/usr/lib/scala目录

2.2解压scala文件

2.3修改环境变量~/.bashrc,将scala的bin目录加到PATH里。


3.安装spark

3.1建立目录/usr/local/spark

3.2将下载好的spark-1.2.1-bin-hadoop1.tgz解压

3.3修改~/.bashrc将spark的bin目录加到PATH环境变量里


4.配置spark

4.1进入conf目录

4.2copy spark-env.sh.template spark-env.sh

添加如下信息:

export JAVA_HOME=/usr/lib/java/jdk1.7.0_15   #JAVA安装目录
export SCALA_HOME=/usr/lib/scala/scala-2.11.6  #scala安装目录
export SPARK_MASTER_IP=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

self-motivation

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值