本文章spark是在Hadoop2.7完全分布式环境下搭建的,相关配置如下:
1、ubuntu16.04LTS
2、jdk1.8._111
3、Hadoop2.7.3
一 工具准备
1.spark-2.1.0-bin-hadoop2.7.tgz(下载地址)
2.scala-2.12.1.tgz(下载地址)
二 环境搭建
1.scala安装
(1)解压scala-2.12.1.tgz到/usr/local/scala目录下
(2)增加环境变量
root@master:~# gedit .bashrc
添加以下内容:
export SCALA_HOME=/usr/local/scala/scala-2.12.1
export PATH=$PATH:$SCALA_HOME/bin
(3)刷新环境变量