【Spark系列之一】本地测试spark的api遇到的问题

【Spark系列之一】本地测试spark的api遇到的问题

如果只是本地测试spark的各种api的使用,是不需要下载安装任何spark、Hadoop的。直接引入maven依赖就可以了。

  1. 看下面一段代码:
public static void mapPartition(){
        SparkConf config = new SparkConf().setMaster("local").setAppName("map-partition");
        JavaSparkContext context = new JavaSparkContext(config);
        context.setLogLevel("ERROR");

        List<Integer> list = Arrays.asList(2, 3, 5, 1, 21);
        JavaRDD<Integer> dataRDD = context.parallelize(list, 2);

        JavaRDD partRDD = dataRDD.mapPartitions(new FlatMapFunction<Iterator<Integer>, Integer>() {
            @Override
            public Iterator<Integer> call(Iterator<Integer> integerIterator) throws Exception {
                int sum = 0;
                while (integerIterator.hasNext()){
                    // 可以知道将数据分为了两个区,[2, 3]及[5, 1, 21]
                    System.out.println("aaa== " + integerIterator.hashCode());
                    sum += integerIterator.next();
                }
                List<Integer> list1 = new ArrayList<>(2);
                list1.add(sum);
                return list1.iterator();
            }
        });

        List resultList = partRDD.collect();
        System.out.println(resultList);  // [5, 27]
        context.close();
    }

出现的问题:

  1. Spark2.4.0版本context.parallelize(list)出错,报数组越界问题。换成2.3.0版本没问题。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值