一、Scala作为spark的运行基础语言,首先需要下载的就是Scala
1、官网下载安装Scala:scala-2.12.8.tgz
https://www.scala-lang.org/download/
2、上传解压
上传SecureCRT 【File】→【Connect SFTP Session】开启sftp操作:
put E:\大数据软件\9\scala-2.12.8.tgz
解压:tar -zxvf scala-2.12.8.tgz -C /opt/module
3、修改 scala-2.12.8的文件名
mv scala-2.12.8 scala
4、测试:scala -version
5、启动:scala
二、安装spark
1、官网下载安装Spark:spark-2.4.2-bin-hadoop2.7.tgz
https://www.apache.org/dyn/closer.lua/spark/spark-2.4.2/spark-2.4.2-bin-hadoop2.7.tgz
解压、重命名(与上面操作一致)
2、在/etc/profile里配置Scala和spark的环境变量
exprot SCALA_HOME=/opt/module/scala
export PATH= S C A L A H O M E / b