Spark

Spark概论:

  • spark是一个快速的统一的大数据处理分析引擎
  • 基本特点:
  1. 速度快基于内存计算
  2. 简单易用:支持多语言开发,将数据处理模式封装成80多个方法供开发者调用
  3. 通用性:
    1. 支持批处理:核心是RDD,SparkSql
    2. 支持流处理:Spark Streaming
    3. 支持交互式分析:Spark shell
    4. 支持机器学习:MLLib
    5. 支持图处理:GraphX
  4.  运行在多种平台上

安装:

  • 安装scala及其配置环境
  • spark配置、环境变量、子节点
  • 可以使用zookeeper配置spark的高可用
  • ./sbin/start-all.sh

spark-shell

  • 交互式数据处理的工具
  • shell中自动帮我们实例化了SparkContext(sc)对象和SparkSession(spark)对象
  • 接受scala代码,完成数据处理
  • spark-shell --master spark://master:7077
  • 如果不加--master  url等于是用单机启动sparkshell
  • 按tab键可以提示

Spark核心: 

  • 运行方式:
  1. intellj本地运行
  2. sparksubmit集群运行:spark-submit --master spark://seven1:7077 --class com.zhiyou.bd23.WordCount sparktest23.jar
    1. 打jar包
    2. 上传到linux上运行
    3. sparksubmit指令运行
  3. 本地集群运行
  • 概念:
  1. Application:
    1. 一个完整的数据处理过程就是一个application
    2. 包含1个driver
    3. 包含多个executor
  2. Driver:
    1. 负责每个rdd(数据集)的生产DAG图
    2. 当对rdd进行取值(读值)操作的时候,会触发job,开始执行计算
    3. 对DAG图解析生成DAG调度
    4. 根据DAG调度,向集群管理者申请资源,当获取到资源后开始接受资源的调配
    5. 调配集群中的资源后开始接受对接资源的调配
    6. 调配集群中的资源运行起Excutor程序,并维护和Excutor之间的连接
    7. 根据DAG调度,有序的向Executor派发Task任务,交由Executor执行
    8. 执行期间接受Executor汇报来的执行进度和执行状态
    9. 执行失败,执行失败的恢复和容错机制
  3. Execitor:
    1. 接受Driver发送来的Task任务,执行Task
    2. 向Driver汇报执行进度和执行状态
  4. rdd的方法:
    1. Transformation:
      1. 对数据的转换、过滤、处理
      2. 还有些聚合处理
      3. 不会触发job,不会对数据读值,只是对数据进行转换处理
      4. transformatiom的返回值方法一般是rdd
    2. action:
      1. 一定会触发job,对数据集进行读值操作
      2. action的方法的返回值都不是rdd
  5. Job:
    1. 每一次action方法调用,都会触发一个Job
    2. 一个Job中会有多个task
  6. DAG图
    1. 每一个Job都会生成一个DAG图
    2. 一个DAG图中会包含多个Stage,Stage和Stage之间的划分依据是:shuffle
    3. 一个Stage下面可以包含多个task
    4. stage的划分:根据宽依赖/shuffle来作为划分边界
    5. 父子依赖关系:
      1. 窄依赖:子rdd一个分区的数据只来源于父rdd的一个分区
      2. 宽依赖:子rdd的一个分区数据来源于多个父rdd的分区
  7. Task:
    1. 数据处理的最小单位
    2. 一般的算子就是Task
  8. RDD:
    1. 弹性分布式数据集
    2. 不可变
    3. 迭代计算
  9. clustermanager:
    1. 分布式计算框架主节点:
      1. spark:master
      2. yarn:resourcemanager
  10. work node:
    1. 分布式计算框架子节点:
      1. spark:worker
      2. yarn:nodemanager

开发步骤:

  • 创建SparkConf,设置master和appname
  • 创建SparkContext
  • 加载数据源获取RDD
  • 对rdd调用各种Transformation方法对数据集进行处理转换
  • 调用action触发计算job的执行(对结果数据进行取值处理)
  • 完成计算关闭SparkContext
  • 代码上:
  1. Driver:
    1. 构建SparkContext对象用以和集群进行互通
    2. 通过sparkcontext加载获取rdd
    3. 记录对rdd的各种转换操作以待编译成DAG图
    4. 在对rdd调用Action方法时触发job
  2. Exector:对rdd调用Transformation方法或作者Action方法时所传送的算子(函数)

API:

  • SparkContext:
  1. 有半生类和半生对象,可以使用new实例化也可以调用半生对象的方法实例化
  2. 给运行环境中添加资源文件或jar:addjar,addfile
  3. 构造加载RDD:
    1. 从文件加载:
      1. newAPIHadoopFile:hdfs上的各种格式文件
      2. newAPIHadoopRDD:HBase
      3. textfile
      4. sequencefile
      5. wholefile
    2. 把内存中的集合转换成rdd:defaultParallelism
  4. 声明累加器:
  5. 声明广播变量:
  • RDD:
  1. 转换方法:
    1. map:
      1. 以rdd中的每一个元素为处理单元,对数据进行转换操作
      2. 一个输入对应一个输出
    2. mapPartitions:
      1. rdd的每个分区只有一个算子
      2. 输入和输出的rdd的记录可能会不一样
    3. mapPartitionsWithIndex:
      1. 功能和mapPartition一样
      2. 会多获取到一个partition的编号
    4. flatMap:
      1. 类似于hivesql的explode,对集合进行展平操作
      2. 列转行
    5. action:
      1. foreach
      2. foreachPartition
      3. collect:把数据从executor传到driver上组成一个Array
  2. 过滤:
    1. filter
    2. 也可以使用mapPartition实现过滤
  3. 去重:distinct
  4. 分组:groupBy
  5. 排序
  6. topN
  7. 缓存
  8. 重分区
  9. 集合操作:
    1. 交集
    2. 并集/合集
    3. 减集
    4. 笛卡尔乘积
  10. 聚合
  • PairRDDFunction

 

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值