Spark是Hadoop MapReduce的通用并行框架,不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法;
1.下载安装Scala
1.1 到Scala官网下载想要的版本:
1.2 下载后上传到安装目录下
使用:tar -zxvf scala-2.12.0.tgz
解压后的文件为:scala-2.12.0
1.3 添加环境变量
vi /etc/profile
export SCALA_HOME=/opt/scala-2.12.0
export PATH=... :$SCALA_HOME/bin:$PATH
1.4 验证