Spark1.6.0 on Hadoop-2.6.3 安装配置

39 篇文章 0 订阅
21 篇文章 0 订阅

安装配置Scala

1 下载scala
下载解压scala包:略
附:下载链接
http://www.scala-lang.org/download/2.10.4.html

移动scala到指定目录

mkdir /usr/local/scala

mv scala-2.10.4 /usr/local/scala

这里写图片描述
2 配置scala环境变量

export SCALA_HOME=/usr/local/scala/scala-2.10.4

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SCALA_HOME}/bin:$PATH

这里写图片描述
source .bashrc 使配置生效,显示安装的scala版本
这里写图片描述
3 测试scala运行环境

输入scala进入scala环境:

测试:12*12 回车

这里写图片描述

安装配置Spark1.6.0

1 下载Spark1.6.0
根据Hadoop选择对应版本下载Spark
这里写图片描述

附:下载链接

http://spark.apache.org/downloads.html

将下载解压后的spark移动到指定目录(/usr/local/spark)

mkdir /usr/local/spark

mv spark-1.6.0-bin-hadoop2.6 /usr/local/spark

这里写图片描述
2 配置Spark环境变量

export SPARK_HOME=/usr/local/spark/spark-1.6.0-bin-hadoop2.6

export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:$PATH

这里写图片描述

注:source .bashrc 使配置生效

3 配置Spark

cp spark-env.sh.template spark-env.sh

vim spark-env.sh

这里写图片描述
这里写图片描述

添加SPARK配置信息

    export JAVA_HOME=/usr/lib/java8/jdk1.8.0_65
    export SCALA_HOME=/usr/local/scala/scala-2.10.4
    export SPARK_MASTER_IP=hjr
    export SPARK_WORKER_CORES=2
    export SPARK_WORKER_MEMORY=1g
    export HADOOP_CONF_DIR=/usr/local/hadoop/hadoop-2.6.3/etc/hadoop

这里写图片描述

cp slaves.template slaves

vim slaves

注意 IP 地址:

这里写图片描述

添加节点:
hjr 或者 127.0.1.1

这里写图片描述

4 启动Spark,查看集群状况

cd /usr/local/spark/spark-1.6.0-bin-hadoop2.6

启动:
./start-all.sh
jps查看进程:多了一个Master和Worker进程

这里写图片描述

启动:spark-shell

这里写图片描述

这里写图片描述

测试运行:

val file=sc.textFile("hdfs:/hjr/hdfs-site.xml")

这里写图片描述

val count=file.flatMap(line=>line.split(" ")).map(word=>(word,1)).reduceByKey(_+_)

这里写图片描述

count.collect

这里写图片描述

这里写图片描述

Spark UI:
这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

附:Spark History Server 配置

1

vim /conf/spark-defaults.conf
spark.eventLog.enabled           true
spark.eventLog.dir               hdfs://localhost:9000/SparkHistoryServerLogs
spark.history.ui.port            18088
spark.history.fs.logDirectory    hdfs://localhost:9000/SparkHistoryServerLogs

2

vim spark-env.sh

起作用:(localhost:9000 — 路径和hadoop配置文件core-site.xml对应)

export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18088 -Dspark.history.fs.logDirectory=hdfs://localhost:9000/SparkHistoryServerLogs"

3

hadoop fs -mkdir /SparkHistoryServerLogs
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

易悠

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值