理解 Spark RDD 算子 aggregate
def aggregate[U](zeroValue: U)(seqOp: (U, T) ⇒ U, combOp: (U, U) ⇒ U)(implicit arg0: ClassTag[U]): U
这个算子一共有两个参数列表,第一个参数列表中传递 zeroValue (第零个值)第二个参数列表中传递两个函数,传入的第一个函数seqOp函数会作用于每个分区,第二个函数combOp函数在第一个函数执行完之后汇总所有分区结果。
举个栗子
def main(args: Array[String]): Unit = {
val conf