pyspark前言说明

更多信息https://blue-shadow.top/

书籍<<Python在大数据平台的应用>>
更多信息请关注本书附书代码:附书代码Github工程:https://github.com/Shadow-Hunter-X

主要内容说明

主要按以下3个大点进行说明,也符合进行操作过程种的步骤,读取数据-操作数据-分析保存数据.
总结起来就是:从哪里获取数据 ; 如何操作数据 ; 分析数据如何保存

  • 数据源读取数据
    包括对各种数据源的介绍和读取数据的相关API

  • 数据操作
    主要包括 3类操作 RDD API(包括Pair RDD) , DataFrame ,Streaming , Spark SQL ; 这些操作都可以归类为transformation或action

  • 数据分析和保存
    MLlib的使用;数据保存的方法.

会涉及到以下几类信息:

3个编程对象-RDD,DataFrame,DataSet

RDD、DataFrame、Dataset全都是spark平台下的分布式弹性数据集,为处理超大型数据提供便利

RDD:是一个不可变的分布式对象集合。每个RDD都被分为多个分区,这些分区运行在集群中的不同节点上。RDD可以包含 Python、Java、Scala中任意类型的对象,甚至可以包含用户自定义的对象。轻松有效地处理结构化和非结构化的数据。但是像Dataframe和DataSet一样,RDD不会推断出所摄取数据的模式,并且需要用户指定它spark 1.0加入。
DataFrame: DataFrame是组织成命名列的分布式数据集合。它在概念上等同于关系数据库中的表,仅适用于结构化和半结构化数据。它组织命名列中的数据。DataFrames允许Spark使用管理模式,在Spark 1.3时加入。
DataSet: 它是DataFrame API的扩展,提供了RDD API的类型安全、面向对象编程接口的功能,以及Catalyst查询优化器的性能优势和DataFrame API的堆外存储机制,有效地处理结构化和非结构化数据。它表示行的JVM对象或行对象集合形式的数据,Spark1.6加入。

3类编程对象数据源及编译安全性:
RDD:数据源 API允许RDD可以来自任何数据源,例如文本文件、数据库通过JDBC等,并轻松处理没有预定义结构的数据。提供了一种熟悉的面向对象编程风格,具有编译时类型安全性。
DataFrame:数据源API允许以不同的格式进行数据处理(AVRO、CSV、JSON和存储系统HDFS、HIVE表、MySQL)。可以从上面提到的各种数据源读取和写入。 如果尝试访问表中不存在的列,则Dataframe API不支持编译时错误。它仅在运行时检测属性错误。
DataSet:DataSet的API支持各种的数据源。它提供编译时类型安全性 。

2种操作类型-transformation和action

RDD支持两种操作:transformation操作和Action操作。对于各API,都可以归类为这两类     
  • transformation
    RDD 的transformations操作是返回新RDD的操作。且transformations RDD 是惰性求值的,只有在行动操作中用到这些RDD时才会被计算。许多转化操作都是针对各个元素的,也就是说,这些转化操作每次只会操作 RDD 中的一个元素。
  • action
    对于action操作对RDD计算出一个结果,并把结果返回到驱动器程序中,或把结果存储到外部存储系统(如 HDFS)中

3类数据源和数据目标

Spark 支持从本地文件系统中读取文件,不过它要求文件在集群中所有节点的相同路径下都可以找到.
  • 本地: NFS,AFS以及MapR的NFS layer这样的网络文件系统 ; 格式 file:///home/spark/README.md
  • HDFS: 连接到HDFS,从HDFS上获取数据 格式 hdfs://master:port/path
  • 网络: 如Amazon S3 格式 s3n://bucket/path-within-bucket

4类操作对象 RDD API , DataFrame API,Streaming ,Spark SQL

主要包括对这些对象的构建和使用。

5个模块 core , SQL , Streaming , MLlib , GraphX

  • Spark Core
    Spark Core实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统,交互等模块。
    Spark Core 中还包含了对弹性分布式数据集(resilient distributed dataset,简称 RDD)的API定义。
    RDD 表示分布在多个计算节点上可以并行操作的元素集合,是Spark 主要的编程抽象。 Spark Core 提供了创建和操作这些集合的多个API

  • Spark SQL
    Spark SQL 是Spark用来操作结构化数据的程序包。通过 Spark SQL,可以使用SQL或者Apache Hive版本的SQL方言(HQL)来查询数据。
    Spark SQL 支持多种数据源,比如Hive表、Parquet以及JSON等。除了为Spark提供了一个 SQL接口,Spark SQL 还支
    持开发者将 SQL 和传统的 RDD 编程的数据操作方式相结合,不论是使用 Python、 Java还是 Scala,开发者都可以在单个的应用中同时使用 SQL 和复杂的数据分析。通过与 Spark所提供的丰富的计算环境进行如此紧密的结合,Spark SQL得以从其他开源数据仓库工具中脱颖而出。Spark SQL是在Spark1.0中被引入的。

  • Spark Streaming
    Spark Streaming 是 Spark 提供的对实时数据进行流式计算的组件。比如生产环境中的网页服务器日志, 或是网络服务中用户提交的状态更新组成的消息队列,都是数据流。
    Spark Streaming 提供了用来操作数据流的 API, 并且与 Spark Core 中的 RDD API 高度对应。这样一来,程序员编写应用时的学习门槛就得以降低,不论是操作内存或硬盘中的数据,还是操作实时数据流, 程序员都更能应对自如。从底层设计来看, Spark Streaming 支持与Spark Core 同级别的容错性、吞吐量以及可伸缩性

  • MLlib
    Spark 中还包含一个提供常见的机器学习(ML)功能的程序库,叫作 MLlib。 MLlib 提供了很多种机器学习算法, 包括分类、回归、聚类、协同过滤等,还提供了模型评估、数据导入等额外的支持功能。 MLlib 还提供了一些更底层的机器学习原语,包括一个通用的梯度下降优化算法。所有这些方法都被设计为可以在集群上轻松伸缩的架构

  • GraphX
    GraphX 是用来操作图(比如社交网络的朋友关系图)的程序库,可以进行并行的图计算。与Spark Streaming和Spark SQL类似, GraphX 也扩展了 Spark 的 RDD API,能用来创建一个顶点和边都包含任意属性的有向图。GraphX还支持针对图的各种操作(比如进行图GraphX 是用来操作图(比如社交网络的朋友关系图)的程序库,可以进行并行的图计算。与 Spark Streaming 和 Spark SQL 类似, GraphX 也扩展了 Spark 的 RDD API,能用来创建一个顶点和边都包含任意属性的有向图。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值