Spark核心编程(RDD行动算子)-action

RDD行动算子

所谓的行动算子,其实不会再产生新的RDD,而是触发作业的执行。行动算子执行后,会获取到作业的执行结果。
转换算子不会触发作业的执行,只是功能的扩展和包装。
Spark的行动算子执行时,会产生Job对象,然后提交这个Job对象。

reduce

函数签名:

def reduce(f: (T, T) => T): T

函数说明:

聚集RDD中的所有元素,先聚合分区内数据,再聚合分区间数据

案例:

def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD Action")
    val sc = new SparkContext(sparkConf)

    val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
    val res: Int = rdd.reduce(_+_)
    println(res) // 10
}

collect

函数签名:

def collect(): Array[T]

函数说明:

在driver中,以数组Array的形式返回数据集的所有元素。
注意:只有当结果数组预期很小时,才应使用此方法,因为所有数据都加载到driver的内存中。可能会出现内存溢出。

案例:

def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD Action")
    val sc = new SparkContext(sparkConf)

    val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
    val res: Array[Int] = rdd.collect()
    println(res.mkString(", ")) // 1, 2, 3, 4
}

count

函数签名:

def count(): Long

函数说明:

返回RDD中元素的个数

案例:

def main(args: Array[String]): Unit = {
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD Action")
    val sc = new SparkContext(sparkConf)

    val rdd: RDD[Int] = sc.makeRDD(List(1, 2, 3, 4))
    val res: Long = rdd.count() // 4
    println(res)
}

countByValue

函数签名:

def countByValue()(implicit ord: Ordering[T] = null): Map[T,
Long]

函数说明:

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值