Apache Spark 内存计算框架简介

1. spark是什么?

Apache Spark™ is a unified analytics engine for large-scale data processing.
spark是针对于大规模数据处理的统一分析引擎

  • spark 是在Hadoop基础上的改进,基于map reduce算法实现的分布式计算框架,所以spark 拥有Hadoop MapReduce所具有的优点。
  • spark 不同于 MapReduce 的是 spark 的 Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于需要迭代的map reduce的算法,如数据挖掘与机器学习等。
  • spark是基于内存计算框架,计算速度非常快,但是它仅仅只是涉及到计算,并没有涉及到数据的存储,后期需要使用spark对接外部的数据源,比如hdfs。

2. spark四大特性

  • 特性一: 速度快
    在这里插入图片描述
    spark 比 marpreduce 快的两个主要原因
  1. sp
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Apache Spark是一种快速、通用、可扩展的分布式计算框架,可以高效地处理大规模数据。它是基于内存计算的,可以在内存快速地对数据进行处理,从而大大提高了计算速度。 Spark的核心是一个分布式计算引擎,它可以在集群进行分布式计算,将计算任务分成多个小任务并行处理,从而可以快速地处理大规模数据。Spark支持多种编程语言,包括Java、Scala、Python等,开发人员可以使用自己熟悉的编程语言来编写Spark应用程序。 Spark提供了一系列的API,包括Spark SQL、Spark Streaming、MLlib、GraphX等,可以满足不同的数据处理需求。其Spark SQL提供了类似于SQL的查询语言,可以对结构化数据进行查询和分析;Spark Streaming可以进行实时数据处理;MLlib提供了机器学习算法库,可以进行机器学习和数据挖掘;GraphX则是一个图计算库,可以进行图数据处理等。 Spark的优点主要有以下几点: 1. 高速处理能力:Spark是基于内存计算的,可以快速地对数据进行处理,比传统的基于磁盘计算的Hadoop MapReduce要快得多。 2. 支持多种数据源:Spark可以支持多种数据源,包括HDFS、Cassandra、HBase、JDBC等,可以方便地进行数据处理和分析。 3. 易于使用:Spark提供了丰富的API和编程语言支持,开发人员可以使用自己熟悉的编程语言来进行开发,学习成本较低。 4. 可扩展性强:Spark可以方便地进行横向扩展,可以添加更多的节点来扩展处理能力,从而可以应对不同的数据处理需求。 总之,Apache Spark是一个功能强大、易于使用、可扩展的分布式计算框架,可以帮助开发人员高效地处理大规模数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值