Spark 2.0.2 环境安装教程

0. 前置环境

linux VMWare上搭建Centos7并配置网络用FinalShell连接(详细图文教程)
hadoop Centos7上搭建hadoop2.6.5详细图文教程

1. 安装scala环境

Master节点
scala-2.11.8.tgz下载好后,上传至虚拟机,解压安装。
安装至/usr/local/src/
在这里插入图片描述
~/.bashrc中添加scala环境

# set scala environment
export SCALA_HOME=/usr/local/src/scala-2.11.8
export PATH=$PATH:${SCALA_HOME}/bin

生效环境

[root@master src]# source ~/.bashrc

完成后,将scala和配置文件分发到slave1slave2

[root@master src]# scp -r /usr/local/src/scala-2.11.8 root@slave1:/usr/local/src/
[root@master src]# scp -r /usr/local/src/scala-2.11.8 root@slave2:/usr/local/src/
[root@master src]# scp -r ~/.bashrc root@slave1:~/
[root@master src]# scp -r ~/.bashrc root@slave2:~/

同理,生效slave中的环境

2. 安装spark

Master节点
spark-2.0.2-bin-hadoop2.6.tgz下载好后,上传至虚拟机,解压安装。
安装至/usr/local/src/

进入conf,拷贝一个spark-env.sh

[root@master spark-2.0.2-bin-hadoop2.6]# cd conf
[root@master conf]# cp spark-env.sh.template spark-env.sh

修改spark-env.sh文件,增加java、scala、hadoop和spark环境及配置信息

export JAVA_HOME=/usr/local/src/jdk1.8.0_172
export SCALA_HOME=/usr/local/src/scala-2.11.8
export HADOOP_HOME=/usr/local/src/hadoop-2.6.5
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master
SPARK_LOCAL_DIR=/usr/local/src/spark-2.0.2-bin-hadoop2.6
SPARK_DRIVER_MEMORY=1G

conf中,拷贝一个slaves

[root@master conf]# cp slaves.template slaves

修改环境

slave1
slave2

在这里插入图片描述
完成后,将spark分发到slave1slave2

[root@master src]# scp -r spark-2.0.2-bin-hadoop2.6/ root@slave1:/usr/local/src/
[root@master src]# scp -r spark-2.0.2-bin-hadoop2.6/ root@slave2:/usr/local/src/

3. 启动spark

Master节点
启动完Hadoop后,再启动spark

[root@master spark-2.0.2-bin-hadoop2.6]# sbin/start-all.sh 

在这里插入图片描述
Spark安装成功!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控Worker。在YARN模式中为资源管理器。 Worker:从节点,负责控制计算节点,启动Executor。在YARN模式中为NodeManager,负责计算节点的控制。 Driver:运行Application的main()函数并创建SparkContext。 Executor:执行器,在worker node上执行任务的组件、用于启动线程池运行任务。每个Application拥有独立的一组Executors。 SparkContext:整个应用的上下文,控制应用的生命周期。 RDD:Spark的基本计算单元,一组RDD可形成执行的有向无环图RDD Graph。 DAG Scheduler:实现将Spark作业分解成一到多个Stage,每个Stage根据RDD的Partition个数决定Task的个数,然后生成相应的Task set放到TaskScheduler中。 TaskScheduler:将任务(Task)分发给Executor执行。 Stage:一个Spark作业一般包含一到多个Stage。 Task:一个Stage包含一到多个Task,通过多个Task实现并行运行的功能。 Transformations:转换(Transformations) (如:map, filter, groupBy, join等),Transformations操作是Lazy的,也就是说从一个RDD转换生成另一个RDD的操作不是马上执行,Spark在遇到Transformations操作时只会记录需要这样的操作,并不会去执行,需要等到有Actions操作的时候才会真正启动计算过程进行计算。 Actions:操作(Actions) (如:count, collect, save等),Actions操作会返回结果或把RDD数据写到存储系统中。Actions是触发Spark启动计算的动因。 SparkEnv:线程级别的上下文,存储运行时的重要组件的引用。 SparkEnv内创建并包含如下一些重要组件的引用。 MapOutPutTracker:负责Shuffle元信息的存储。 BroadcastManager:负责广播变量的控制与元信息的存储。 BlockManager:负责存储管理、创建和查找块。 MetricsSystem:监控运行时性能指标信息。 SparkConf:负责存储配置信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

辰阳星宇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值