Spark入门及安装部署

目录Spark简介拥有四种运行模式Spark比MapReduce快的原因DAG在spark中任务调度详解Spark生态系统:Spark安装部署:配置伪分布模式:1、上传spark安装包到虚拟机-Linux2、解压、配置软连接3、配置环境变量4、修改配置文件5、启动spark6、测试webui配置Spark-完全分布式 HA1、上传spark压缩包到Linux操作系统2、解压、并且配置软连接3、配置...
摘要由CSDN通过智能技术生成

Spark简介

Spark是加州大学伯克利分校AMP实验室开发的大数据处理框架。Spark生态系统也被成为BDAS,力图在算法、机器、人三者之间通过大规模数据集成来展现大数据应用的一个开源平台。Spark在2013年6月进入Apache成为孵化项目,8个月或就成为Apache的顶级项目,围绕Spark推出了Spark SQL、Spark Streaming、MLlib、GraphX、SparkR等组件。(看起来想直接取代Hadoop的地位)。

Spark使用Scala语言实现。具有运行速度快、易用性好(支持多种语言)、通用性强(拥有各种组件)和随处运行(适应Hadoop、Cassandra、Hbase、S3和Tachyon)等特点。

拥有四种运行模式

  1. local模式
  2. standalone,使用spark自带的资源调度框架。
  3. yarn,最流行的方式,使用yarn调度
  4. mesos,国外用的多。

Spark比MapReduce快的原因

  1. spark基于内存迭代,MapReduce基于磁盘迭代。
  2. DAG计算模型在迭代计算上比MR有效率。
  3. Spark是粗粒度的资源调度,MR是细粒度的资源调度。

DAG在spark中任务调度详解

一般而言DAG会比MR在大多数情况下减少shuffle次数。如果不涉及与其他节点的数据交换,spark可以在内存中一次完成操作,也就是中间不需要落盘,减少的IO操作。
但是,如果计算中涉及到了数据交换,spark也会把shuffer的数据写进磁盘。大部分人认为spark是基于内存的计算,所以快。其实这不是主要原因。涉及到计算必然会加载数据进内存。Hadoop也如此。只不过Spark支持将反复计算的数据给Cache到内存中,减少加载耗时。所以对于需要类似迭代的算法比较在行。当然spark基于磁盘预算也比Hadoop快。因为DAG的关系,spark天生适合做批处理任务。

Spark生态系统:

Spark生态系统以Spark Core为核心,能读取各种类型的文件,利用Standalone、YARN和Mesos等资源调度管理。Spark shell和Spark submit交互式批处理、Spark Streaming实时流处理应用、Spark SQL的即时查询、采样近似查询引擎BlinkDB的权衡查询、MLbase/MLlib的机器学习、GraphX的图处理、SparkR的数学计算等等。
在这里插入图片描述

Spark安装部署:

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值