spark Java aggregate算子的使用

本文探讨了Spark Java中aggregate算子的使用,该算子用于执行聚合操作,如求和与计算平均值。特别是当数据集在单个分区上操作时,aggregate算子能有效处理。
摘要由CSDN通过智能技术生成

aggregate 是一个聚合算子 可以用来 求和 求平均数据等

//多个分区
 ArrayList<Integer> list = new ArrayList<Integer>();
        list.add(1);
        list.add(2);
        list.add(3);
        list.add(4);

        JavaRDD<Integer> parallelize = sc.parallelize(list,2);

        Tuple2<Integer, Integer> aggregate = parallelize.aggregate(new Tuple2<Integer, Integer>(0, 0), new Function2<Tuple2<Integer, Integer>, Integer, Tuple2<Integer, Integer>>() {
   
        //用于聚合一个分区的中的数据
            @Override
            public Tuple2<Integer, Integer> call(Tuple2<Integer, Integer> x, Integer integer) throws Exception {
   
                return new Tuple2<Integer, Integer>(x._1 + integer, x._2 + 1);
            }
        }, new Function2<Tuple2<Integer
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值