十、scala、spark集群搭建

spark集群搭建:
1、上传scala-2.10.6.tgz到master
2、解压scala-2.10.6.tgz
3、配置环境变量
export SCALA_HOME=/mnt/scala-2.10.6
export PATH=$PATH:$SCALA_HOME/bin
4、分别发送scala-2.10.6 /etc/profile到slave01、slave02
scp -r scala-2.10.6 root@slave01:/mnt/
scp /etc/profile root@slave01:/etc/profile
5、source /etc/profile并且输入scala测试
6、配置spark
上传spark-1.6.3-bin-hadoop2.6.tgz解压
进入/yangfengbing/spark-1.6.3-bin-hadoop2.6/conf
mv spark-env.sh.template spark-env.sh
配置spark-env.sh文件:
解释:JAVA_HOME 指定 Java 安装目录;
SCALA_HOME 指定 Scala 安装目录;
SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;
SPARK_WORKER_MEMORY 指定的是 Worker 节点能够分配给 Executors 的最大内存大小;
#HADOOP_CONF_DIR 指定 Hadoop 集群配置文件目录。

export JAVA_HOME=/mnt/jdk1.7.0_80
export SCALA_HOME=/mnt/scala-2.10.6
export SPARK_MASTER_IP=master
export SPARK_WORKER_MEMORY=2G
export HADOOP_CONF_DIR=/mnt/hadoop-2.6.5/etc/hadoop
7、进入/yangfengbing/spark-1.6.3-bin-hadoop2.6/conf 找到slaves
mv slaves.template slaves
配置:
master
slave01
slave02
8、配置spark的环境变量
export SPARK_HOME=/mnt/spark-1.6.3-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
9、发送spark、/etc/profile
scp -r spark-1.6.3-bin-hadoop2.6 root@slave01:/mnt/
scp /etc/profile root@slave01:/etc/profile
source /etc/profile
10、启动集群
1) 启动 Master主机 节点
运行 start-master.sh就可以启动三台的spark服务

进入192.168.200.200:8080查看






转载于:https://www.cnblogs.com/yfb918/p/11510944.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值