spark aggregateByKey函数执行结果异常问题

执行函数异常代码
</pre><pre name="code" class="java"> val conf = new SparkConf().setAppName("SparkWordCount").setMaster("local[1]")
    val sc = new SparkContext(conf)
    val data = sc.parallelize(List((1, 3), (1, 200), (1, 100), (2, 3), (2, 4), (2, 5)))
    def seqOp(a: Int, b: Int): Int = {
      println("seq: " + a + "\t " + b)
      math.max(a, b)
    }
    def combineOp(a: Int, b: Int): Int = {
      println("comb: " + a + "\t " + b)
      a + b
    }
    //    val localIterator=data.aggregateByKey(0)((_,_)._2, _+_).collect();
    val localIterator = data.aggregateByKey(4)(seqOp, combineOp).collect();
    for (i <- localIterator) println(i)
    sc.stop()
//这样的代码执行完后的结果不正确,原因是数据分片默认太少,将代码的第三行改为:
val data = sc.parallelize(List((1, 3), (1, 200), (1, 100), (2, 3), (2, 4), (2, 5)), 6)
即可

 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值