Spark API 详解/大白话解释 之 RDD、partition、count、collect

 

Spark API 详解/大白话解释 之 RDD、partition、count、collect

标签: spark
  6086人阅读  评论(0)  收藏  举报
  分类:
Spark(34) 

RDD定义:

任何数据在Spark中都被转换为RDD。

一个RDD可以看成是一个数组

不过是分到各个分区,分布在不同的机器上,可并行处理。


分区的定义: 
一个RDD有多个RDD分区 
一个RDD分区只在一个机器上 
一个机器可有多个RDD分区 
http://stackoverflow.com/questions/31359219/relationship-between-rdd-partitions-and-nodes


由数据转换为RDD:

举例:从普通数组创建RDD,里面包含了1到9这9个数字,它们分别在3个分区中。这个RDD一共9个元素,每个元素含有一个数字

val a = sc.parallelize(1 to 9, 3)
  • 1

举例:读取本地文件README.md来创建RDD,文件中的每一行就是RDD中的一个元素,分区是2

val b = sc.textFile("README.md",2)
  • 1

count( ) 
返回RDD的元素个数


collect( ) 
返回整个RDD


http://homepage.cs.latrobe.edu.au/zhe/ZhenHeSparkRDDAPIExamples.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值