spark环境搭建java_Spark环境搭建

本文详细介绍了如何在Linux环境下搭建Java、Scala、Hadoop和Spark的完整流程。首先,从Java的安装开始,包括创建安装目录、解压JDK、配置全局变量并验证安装。接着,同样步骤安装Scala。然后,安装Hadoop,涉及全局变量配置、环境变量修改、HDFS的格式化、启动与测试。最后,提到了Spark的安装,包括使用预编译版本,启动Spark Shell验证安装。文章适合初学者进行大数据环境的搭建实践。
摘要由CSDN通过智能技术生成

一、Java安装

1、安装目录准备

在安装这些包之前在家目录下创建一个app的目录,app目录中创建一个tmp目录:

[root@hadoop-master ~]#mkdir -p app/tmp

2、解压JDK

上传JDK1.8版本 jdk-8u74-linux-x64.tar.gz到linux上,并且将其解压到app目录下:

[root@hadoop-master ~]#tar -xzvf jdk-8u74-linux-x64.tar.gz -C ~/app

3、配置全局变量

将解压后的Java路径配置到全局变量中:

vim /etc/profile

export JAVA_HOME=/root/app/jdk1.8.0_74

export PATH=$PATH:$JAVA_HOME/bin

通过source /etc/profile使文件立即生效。

4、测试

[root@hadoop-master ~]#java -version

java version "1.8.0_74"Java(TM) SE Runtime Environment (build1.8.0_74-b02)

Java HotSpot(TM)64-Bit Server VM (build 25.74-b02, mixed mode)

二、scala安装

这与上面的是一样的进行解压到app目录中、然后进行全局配置:

#解压

[root@hadoop-master software]#tar -xzvf scala-2.11.8.tgz -C ~/app

#配置全局环境变量

export SC

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值