3000门徒内部训练绝密视频(泄密版)第7课:实战解析Spark运行原理和Rdd解密

实战解析Spark运行原理和Rdd解密

分布式 基于内存(在一些情况下也会基于硬盘) 特别适合于迭代运算的运算框架

大数据计算问题:
交互式查询:shell,sql
流处理:
批处理:基于spark RDD直接编程,

机器学习、图计算,
图7-1 Spark 任务提交
理解spark:
1、分布式
Driver端(客户端)提交给集群

2、主要基于内存

3、迭代式计算(精髓)

Driver、Worker

Hadoop每次读写
Spark优先从内存中找

DAGScheduler 调度器

Scala/Java都可以
容易容易
容易维护

处理数据来源:HDFS, HBASE, HIVE, DB
处理数据输出:HDFS, HBASE, HIVE, DB, Spark Driver

s3等
图7-2 Spark Runtime的RDD
RDD 弹性分布式数据集 XXX Distributed Datasets
弹性之一:自动进行磁盘和内存数据存储的切换
弹性之二:基于lineage的高效容错,不需要从头开始计算
弹性之三:Task如果失败会自动进行特定次数的重试
弹性之四:Stage如果失败会自动进行特定次数的重试,且只计算失败的分片

缓存时机:
1、特别耗时
2、计算链条很长
3、shuffle之后
4、checkpoint之前

一个RDD分区会放在Spark不同机器的节点上

>val data = sc.textFile("/library/wordcount/input/Data")

data.toDebugString

一些列分片的数据分配在不同的节点

data.count

val flatted = data.flatMap(_.split(" "))
flatted.toDebugString

val mapped = flatted.map(word => (word, 1))
mapped.toDebugString

val reduced = mapped.reduceByKey(_+_)
reduced.toDebugString

reduced.saveAsTextFile
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值