spark、scala安装配置

一、安装scala

1、下载scala .tar.gz文件
2、解压文件到指定文件夹
3、配置scala环境变量
在/etc/profile加入

SCALA_HOME=/spark/scala-2.11.4
export PATH=$SCALA_HOME/bin:$PATH
source /etc/profile

4、分发文件夹到其他主机,同理,配置相应该的环境变量

二、安装Spark

1、下载spark
2、解压到指定文件夹
3、进入conf目录
4、配置slaves文件加入slave地址
5、配置spark-env.sh

export JAVA_HOME=/usr/Java/jdk1.8.0_45
export SCALA_HOME=/spark/scala-2.11.4
export HADOOP_HOME=/spark/Hadoop-2.6.0
export SPARK_MASTER_IP=xxxx
export SPARK_MASTER_WEBUI_PORT=7077
export HADOOP_CONF_DIR=/spark/hadoop-2.6.0/etc/hadoop
export SPARK_WORKER_CORES=32
export SPARK_WORKER_MEMORY=28g

三、分发

分发spark到其他主机上、启动、查看进程、安装成功

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值