spark on yarn 集群 安装

这里写图片描述

一.集群基础环境

1. centos6.5 64 位 Hadoop 完全分布(http://blog.csdn.net/u011414200/article/details/47681711

2. 集群说明

主节点 master4 10.6.3.40
数据节点 slave41 10.6.3.45

3.安装包

1.hadoop-2.2.0.tar.gz(http://pan.baidu.com/s/1slaoEbb)
2.spark-2.0.1-bin-hadoop2.4.tar.gz(http://pan.baidu.com/s/1c2sqfp2)
2.scala-2.10.6.tar.tgz(http://pan.baidu.com/s/1gfNYcmB)

二. scala 安装

1.将scala-2.10.6.tar.tgz 包解压 (本文是解压在/home/zl 下)

tar -zcvf scala-2.10.6.tar.gz

2.修改环境变量
这里写图片描述
添加上图的16,17两行
注:此处环境变量是指当前用户下的环境变量

vim ~/.bash_profile
 16 export SCALA_HOME=/home/zl/scala-2.10.6
 17 export PATH=$PATH:$SCALA_HOME/bin

3.使环境变量生效

source ~/bash_profile

4.验证是否安装成功

scala-version

如下图,则表示安装成功
这里写图片描述

三.安装配置spark

1.将spark-2.0.1-bin-hadoop2.4.tar.gz 安装包放入指定目录(本文是在/home/zl下),并解压到当前用户目录下

tar -zcvf spark-2.0.1-bin-hadoop2.4.tar.gz -C ~/

2.进入 spark-2.0.1-bin-hadoop2.4/conf 下

cd /home/zl/spark-2.0.1-bin-hadoop2.4/conf 

3.配置 spark-env.sh
1.将 spark-env.sh.template 文件复制并重命名为spark-env.sh

cp spark-env.sh.template spark-env.sh

2.编辑 spark-env.sh 文件
这里写图片描述

vim spark-env.sh

加入如下代码

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.45.x86_64//java路径
export SCALA_HOME=/home/zl/scala-2.10.6//scala路径
export HADOOP_HOME=/home/zl/spark-2.0.1-bin-hadoop2.4//spark 路径

``

3.编辑 worker 节点的主机

vim slaves

添加 slave41

4.将配置好的spark分发到点据节点
scp -r spark-2.0.1-bin-hadoop2.4 master4@slave41:/home/zl
5.在主节点 master4 上 sbin 目录下启动 spark
sh start-all.sh
这里写图片描述

master4 看到 master 进程

slave 看到 worke进程这里写图片描述

  1. 在10.6.3.40:8080界面

    这里写图片描述
    ok,基于 yarn 的 spark 安装成功!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值