头歌平台,大数据实验五,spark安装

本文详细介绍了如何在Linux环境中安装Scala和Spark。首先创建app目录并解压Scala安装包,更新环境变量。接着配置Spark环境,设置相关路径,复制并编辑spark-env.sh文件,指定各项依赖及主机名。最后启动Spark集群。
摘要由CSDN通过智能技术生成

spark环境安装

第一关

mkdir /app    //创建 app 目录
cd /opt
tar -zxvf  scala-2.12.7.tgz -C /app  
vi /etc/profile  
    
#set scala
SCALA_HOME=/app/scala-2.12.7
export PATH=$PATH:$SCALA_HOME/bin
    
source /etc/profile
scala -version
//scala    不写也不影响通关
//println("hello world");

第二关

tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /app 

vim /etc/profile

#set spark enviroment
SPARK_HOME=/app/spark-2.2.2-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

source /etc/profile
    
cd /app/spark-2.2.2-bin-hadoop2.7/conf  
cp spark-env.sh.template spark-env.sh
    
vim spark-env.sh
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
export SCALA_HOME=/app/scala-2.12.7
export HADOOP_HOME=/usr/local/hadoop/
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP=evassh-9262177   # machine_name 根据自己的主机确定
export SPARK_LOCAL_IP=evassh-9262177   # machine_name 根据自己的主机确定
    
cd /app/spark-2.2.2-bin-hadoop2.7

./sbin/start-all.sh
    
 

评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值