最新版scala2.11.8与spark1.6.1一步到位安装

一,scala安装:
先到官网下载一个scala的压缩包,它没有过多的要求,然后在Linux下按照如下步骤操作:
1,解压包:
hadoop@master:/mysoftwaretarzxvfscala2.11.8.tgz2hadoop@master:  sudo gedit /ect/profile
hadoop@master:/mysoftware/scala-2.11.8$ sudo gedit /etc/environment

export SCALA_HOME=/mysoftware/scala-2.11.8
 export PATH=$SCALA_HOME/bin:$PATH

这里写图片描述

3,使得这两个文件生效:
source /ect/profile
source /etc/environment

4,启动scala:
hadoop@master:/mysoftware/scala-2.11.8$ scala

看到scala的界面就表示安装成功啦。

二,安装spark:
要求:jdk1.7以上的版本。
下面讲步骤:
1,解压spark压缩包:
hadoop@master:/mysoftware$ tar -zxvf spark-1.6.1-bin-hadoop2.6.tgz

2,配置环境变量:
还是上面两个都配,内容:

    export SPARK_HOME=/mysoftware/spark-1.6.1-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH

3,修改spark-env.sh文件,不过先要复制模板:
hadoop@master:/mysoftware/spark-1.6.1-bin-hadoop2.6/conf$ cp spark-env.sh.template spark-env.sh
sudo gedit spark-env.sh

export SCALA_HOME=/mysoftware/scala-2.11.8
export JAVA_HOME=/mysoftware/jdk1.7.0_80
export SPARK_MASTER_IP=192.168.61.128
export SPARK_WORKER_MEMORY=512m
export master=spark://192.168.61.128:7070

4,修改salves,改成自己设定的主机名,也要先复制模板:
hadoop@master:/mysoftware/spark-1.6.1-bin-hadoop2.6/conf$ cp slaves.template slaves
这里写图片描述

5,启动spark,看到以下两个进程,就表示OK啦!
这里写图片描述

阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/young_so_nice/article/details/51549040
个人分类: spark
想对作者说点什么? 我来说一句

scala-2.11.8

2016年11月06日 27.35MB 下载

scala 2.11.7 安装

2015年09月07日 27.14MB 下载

Scala-2.11.8

2017年08月18日 27.4MB 下载

scala-2.11.7

2015年11月02日 27.14MB 下载

scala-2.11.7 包

2015年10月04日 27.19MB 下载

scala-2.11.8源码

2017年10月18日 8.78MB 下载

scala-2.11.8.msi 安装程序

2018年03月16日 109.35MB 下载

Programming Scala

2014年12月13日 3.37MB 下载

没有更多推荐了,返回首页

不良信息举报

最新版scala2.11.8与spark1.6.1一步到位安装

最多只允许输入30个字

加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!
关闭
关闭