spark2.2.0安装配置

依赖环境:

java1.8
scala2.11.8
hadoop2.7.3

说明:

主机host映射:
192.168.238.100 node01
192.168.238.101 node02
192.168.238.102 node03

其中node01上安装master,node02、node03上安装worker
node01先配置ssh到node02、node03

修改配置

cd spark-2.2.0/conf/
spark-env.sh

cp spark-env.sh.template spark-env.sh
vi spark-env.sh

末尾添加:
export JAVA_HOME=/export/servers/jdk1.8.0_102
export SCALA_HOME=/export/servers/scala-2.11.8
export HADOOP_HOME=/export/servers/hadoop-2.7.3
export HADOOP_CONF_DIR=/export/servers/hadoop-2.7.3/etc/hadoop
export SPARK_MASTER_IP=node01
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_MEMORY=1g

slaves

cp slaves.template slaves
vi slaves

内容localhost替换为:
node02
node03

分别拷贝到节点node02,node03

scp -r /export/servers/spark-2.2.0/ bingo@node02:/export/servers/
scp -r /export/servers/spark-2.2.0/ bingo@node03:/export/servers/

分别加入环境变量

vi /etc/profile
# 添加
export SPARK_HOME=/export/servers/spark-2.2.0
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

分别刷新环境
source /etc/profile

在node01上启动和停止:

启动master:
start-master.sh
启动所有slave:
start-slaves.sh
停止:
stop-master.sh
stop-slaves.sh

weburl:
http://node01:8080/
ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控Worker。在YARN模式中为资源管理器。 Worker:从节点,负责控制计算节点,启动Executor。在YARN模式中为NodeManager,负责计算节点的控制。 Driver:运行Application的main()函数并创建SparkContext。 Executor:执行器,在worker node上执行任务的组件、用于启动线程池运行任务。每个Application拥有独立的一组Executors。 SparkContext:整个应用的上下文,控制应用的生命周期。 RDD:Spark的基本计算单元,一组RDD可形成执行的有向无环图RDD Graph。 DAG Scheduler:实现将Spark作业分解成一到多个Stage,每个Stage根据RDD的Partition个数决定Task的个数,然后生成相应的Task set放到TaskScheduler中。 TaskScheduler:将任务(Task)分发给Executor执行。 Stage:一个Spark作业一般包含一到多个Stage。 Task:一个Stage包含一到多个Task,通过多个Task实现并行运行的功能。 Transformations:转换(Transformations) (如:map, filter, groupBy, join等),Transformations操作是Lazy的,也就是说从一个RDD转换生成另一个RDD的操作不是马上执行,Spark在遇到Transformations操作时只会记录需要这样的操作,并不会去执行,需要等到有Actions操作的时候才会真正启动计算过程进行计算。 Actions:操作(Actions) (如:count, collect, save等),Actions操作会返回结果或把RDD数据写到存储系统中。Actions是触发Spark启动计算的动因。 SparkEnv:线程级别的上下文,存储运行时的重要组件的引用。 SparkEnv内创建并包含如下一些重要组件的引用。 MapOutPutTracker:负责Shuffle元信息的存储。 BroadcastManager:负责广播变量的控制与元信息的存储。 BlockManager:负责存储管理、创建和查找块。 MetricsSystem:监控运行时性能指标信息。 SparkConf:负责存储配置信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值