【Spark】Spark安装和Spark-shell使用

本文详细介绍了Spark的安装模式,包括本地模式、standalone模式、Spark on Yarn和Spark on Mesos。重点讲解了standalone模式的安装步骤,包括配置slaves、log4j.properties、spark-env.sh和spark-defaults.conf等。接着,文章演示了如何启动和验证Spark的master和worker节点,以及使用spark-shell。最后,提到了通过webui进行master和worker的监控,以及在spark-shell中读取HDFS文件的操作和退出shell的步骤。
摘要由CSDN通过智能技术生成

一、spark的安装模式

1、本地模式(local),单点模式,非分布式模式,只需要用到一台机器;

2、standalone模式,是spark自己实现的独立调度器,它是一个资源调度框架;Spark可以通过部署与Yarn的架构类似的框架来提供自己的集群模式,该集群模式的架构设计与HDFS和Yarn大相径庭,都是由一个主节点多个从节点组成,在Spark 的Standalone模式中,主节点为master;从节点为worker;

3、Spark on Yarn模式和Spark on Mesos模式;

二、spark的standalone模式安装和启动

1、把 spark-1.3.0-bin-2.5.0-cdh5.3.6.tgz 包解压到 目录下

tar spark-1.3.0-bin-2.5.0-cdh5.3.6.tgz -C /opt/cdh-5.3.6

2、/opt/cdh-5.3.6/spark-1.3.0-bin-2.5.0-cdh5.3.6/conf/slaves 文件,里面是域名列表,表示从节点,这里只填1个

hadoop-senior.ibeifeng.com

3、log4j.properties.template 复制一份,并重命名为 log4j.properties;表示启用日志;

4、spark-env.sh.template 复制一份;并重命名为 spark-env.sh;增加以下内容:

JAVA_HOME=/opt/modules/jdk1.7.0_79
SCALA_HOME=/opt/modules/scala-2.10.4

HADOOP_CONF_DIR=/opt/cdh-5.3.6/hadoop-2.5.0-cdh5.3.6/etc/hadoop

SPARK_MASTER_IP=hadoop-senior.ibeifeng.com
SPARK_MASTER_PORT=7077
SPARK_MASTER_WEBUI_PORT=8080
SPARK_WORKER_CORES=1
SPARK_WORKER_MEMORY=2g
SPARK_WORKER_PORT=7078
SPARK_WORKER_WEBUI_PORT=8081
SPARK_WORKER_INSTANCES=1
SPARK_WORKER_DIR=1

5、spark-defaults.conf.template 复制一份;并重命名为 spark-defaults.conf;在最后一行加上内容:

spark.master                     spark://hadoop-senior.ibeifeng.com:707
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值