1、查询Spark支持的Scala版本,具体版本可以参照spark下面的jars里面引入的scala包,我装的scala引入的是2.11.8
2、官网下载对应的Scala版本
下载tgz包
上传解压赋权
tar -zxvf scala-2.11.8.tgz
mv scala-2.11.8 ./scala
chown -R hadoop:hadoop scala
su hadoop
3、配置环境变量
cd ~
vim .bashrc
#添加Scala环境变量
export SCALA_HOME=/opt/scala
export PATH=$PATH:$SCALA_HOME/bin
#保存刷新
source .bashrc
scala -version
4、所有的spark集群都需要配置
rsync -av /opt/scala hdp02:/opt
rsync -av /opt/scala hdp03:/opt
rsync -av /opt/scala hdp04:/opt
5、配置分发的环境变量,同上
6、如果配置好环境变量后,source .bashrc刷新后还是出现下面的提示,可能是root已经安装了不同路径的scala,登录root账号,查询/etc/profile,如果存在,要么删除老的,要么在下面新增一个新的scala路径
su hadoop
scala -version