Spark On Yarn集群环境搭建

一、Scala安装

  1. 下载scala安装包,地址:http://www.scala-lang.org/download/
  2. 配置环境变量
    下载完成后,解压到指定的目录下,在/etc/profile文件中配置环境变量:

    export SCALA_HOME=/usr/local/jiang/scala-2.10.6
    export PATH=$PATH:$SCALA_HOME/bin
  3. 验证scala的安装

    [root@logsrv03 etc]# scala -version
    Scala code runner version 2.10.6 -- Copyright 2002-2013, LAMP/EPFL

二、安装spark

  1. 下载spark安装包,地址:http://spark.apache.org/downloads.html
    这里写图片描述
  2. 下载完成后,拷贝到指定的目录下:/usr/local/jiang/,然后解压:

    tar -zxvf spark-1.6.0-bin-hadoop2.6.tgz 
  3. 解压后在配置中添加java环境变量、scala环境变量、hadoop环境变量等conf/spark-env.sh

    
    
    # set scala environment
    
    export SCALA_HOME=/usr/local/jiang/scala-2.10.6
    
    
    # set java environment
    
    export JAVA_HOME=/usr/local/jdk1.7.0_71
    
    
    # set hadoop
    
    export HADOOP_HOME=/usr/local/jiang/hadoop-2.7.1
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    
    
    # set spark
    
    SPARK_MASTER_IP=logsrv03
    SPARK_LOCAL_DIRS=/usr/local/jiang/spark-1.6.0
    SPARK_DRIVER_MEMORY=1G
  4. 配置从机conf/slaves

    logsrv02
    logsrv04

    当然这里配置的是主机名,所以在/etc/hosts中一定要添加主机名和ip的映射,不然没法识别的:

    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    172.17.6.141 logsrv01
    172.17.6.142 logsrv02
    172.17.6.149 logsrv04
    172.17.6.148 logsrv03
    172.17.6.150 logsrv05
    172.17.6.159 logsrv08
    172.17.6.160 logsrv09
    172.17.6.161 logsrv10
    172.17.6.164 logtest01
    172.17.6.165 logtest02
    172.17.6.166 logtest03
    172.30.2.193 devops172302193
    172.30.2.194 devops172302194
    172.30.2.195 devops172302195
  5. 将配置好的spark-1.6.0-bin-hadoop2.6文件远程拷贝到相对应的从机中:

    [root@logsrv03 jiang]# scp -r spark-1.6.0-bin-hadoop2.6 root@logsrv02:/usr/local/jiang/
    [root@logsrv03 jiang]# scp -r spark-1.6.0-bin-hadoop2.6 root@logsrv04:/usr/local/jiang/
  6. 启动集群

    [root@logsrv03 spark-1.6.0-bin-hadoop2.6]# sbin/start-all.sh 
  7. 启动完成后,查看主从机的进程:
    主机:

    [root@logsrv03 spark-1.6.0-bin-hadoop2.6]# jps 
    25325 NameNode
    23973 Master
    17643 ResourceManager
    25523 SecondaryNameNode
    28839 Jps

    从机:

    [root@logsrv02 spark-1.6.0-bin-hadoop2.6]# jps
    744 Worker
    4406 Jps
    2057 DataNode
    2170 NodeManager

    三、安装完成后,可以查看spark的UI:
    这里写图片描述
    运行wordcout例子:
    命令:

 ./bin/spark-submit \
 --name JavaKafkaWordCount \
 --master spark://logsrv03:7077 \
 --executor-memory 1G \
 --class examples.streaming.JavaKafkaWordCount \
 log_spark-0.0.1-SNAPSHOT.jar 172.17.6.142:2181,172.17.6.148:2181,172.17.6.149:2181 11 log-topic 5

运行后spark的UI:
这里写图片描述
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值