Spark+Hadoop集群搭建:(三)在Hadoop集群上安装Spark


本文将介绍如何在Hadoop集群上安装Spark。如果不知道如何搭建Hadoop集群,请先阅读本系列文章的(一)(二)两部分

1 Scala安装

Spark本身是用Scala语言开发的,所以首先需要安装Scala。首先在master中安装。我们用的spark版本为2.4,需要配套使用的scala版本为2.11

1.1 下载安装包

进入Scala下载页面,下拉,找到tgz包
在这里插入图片描述
右击,复制链接如下
https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz
在master的命令行中输入:
wget https://downloads.lightbend.com/scala/2.11.12/scala-2.11.12.tgz

1.2 解压

输入命令:tar xvf scala-2.11.12.tgz
在这里插入图片描述

1.3 迁移目录

将scala迁移到/usr/local目录下
输入命令:sudo mv scala-2.11.12 /usr/local/scala

1.4 配置环境变量

输入命令:sudo gedit ~/.bashrc
加入如下的配置
在这里插入图片描述
使设置生效,输入命令:source ~/.bash

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值