第二章、Spark部署与安装
1部署实践
1.1手动配置Scala
之所以安装scala,是由于spark上使用的为Scala语言。当然也能运行R、Java、Python,安装过程如下。将scala-2.10.4分发到各节点的~/Cloud目录下
$./auto_sync_simple.sh scala-2.10.4~/Cloud
修改/etc/profile文件,在该文件最后追加如下信息
exportSCALA_HOME=/home/hadoop/Cloud/scala-2.10.4
exportPATH=$SCALA_HOME/bin:$PATH
更新profile文件
$source /etc/profile
1.2配置Spark
到官网下载spark
地址:http://spark.apache.org/downloads.html
注意版本的匹配。本教程使用1.3.0版本的spark。
将压缩包移动到目标文件夹并解压:
$mv spark-1.3.0-bin-hadoop2.4.tgz ~/Cloud