Ubuntu安装Scala

本文介绍了如何查询Spark支持的Scala版本,下载并配置2.11.8版本,同步到Spark集群节点,设置环境变量,并处理可能存在的根用户不同路径scala冲突问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、查询Spark支持的Scala版本,具体版本可以参照spark下面的jars里面引入的scala包,我装的scala引入的是2.11.8
在这里插入图片描述
2、官网下载对应的Scala版本
下载tgz包
上传解压赋权

tar -zxvf scala-2.11.8.tgz
mv scala-2.11.8 ./scala
chown -R hadoop:hadoop scala
su hadoop

3、配置环境变量

cd ~
vim .bashrc
#添加Scala环境变量
export SCALA_HOME=/opt/scala
export PATH=$PATH:$SCALA_HOME/bin
#保存刷新
source .bashrc
scala -version

在这里插入图片描述
4、所有的spark集群都需要配置

rsync -av /opt/scala hdp02:/opt
rsync -av /opt/scala hdp03:/opt
rsync -av /opt/scala hdp04:/opt

5、配置分发的环境变量,同上
6、如果配置好环境变量后,source .bashrc刷新后还是出现下面的提示,可能是root已经安装了不同路径的scala,登录root账号,查询/etc/profile,如果存在,要么删除老的,要么在下面新增一个新的scala路径
在这里插入图片描述

su hadoop
scala -version

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值