RDD编程初级实践
1、 需求描述
本次实验需要考察pyspark交互式编程、编写独立应用程序实现数据去重和编写独立应用程序实现求平均值问题。Spark版本是Spark2.4.0,Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为 Mesos 的第三方集群框架可以支持此行为。Spark可用来构建大型的、低延迟的数据分析应用程序。
2、 环境介绍
Ubuntu系统为Ubuntu16.04,本实验采用的版本是Spark2.4.0。Spark可以独立使用,也可以和Hadoop,一起使用Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。以Python为编程语言,使用Spark对数据进行分析,Python版本为3.4.3。
另外,获取RDD,要从共享的文件系统获取,(如:HDFS)通过已存在的RDD转换,将已存在scala集合(只要是Seq对象)并行化 ,通过调用SparkContext的parallelize方法实现改变现有RDD的持久性,RDD是懒散,短暂的。(RDD的固化:c
spark期末大作业
最新推荐文章于 2023-05-30 11:41:23 发布