java spark map函数_spark java函数传递

importorg.apache.spark.SparkConf;importorg.apache.spark.api.java.JavaRDD;importorg.apache.spark.api.java.JavaSparkContext;importorg.apache.spark.api.java.function.FlatMapFunction;importorg.apache.spark.api.java.function.Function;importorg.apache.spark.api.java.function.VoidFunction;importjava.util.ArrayList;importjava.util.Arrays;importjava.util.Iterator;importjava.util.List;class Map_test implements Function{

@Overridepublic String call(String s) throwsException{//方式三

return s+"方式三";

}

}public classjava_spark_function {public static voidmain(String[] args) {

SparkConf conf= new SparkConf().setMaster("local[*]").setAppName("spark_java_function");

JavaSparkContext sc= newJavaSparkContext(conf);

List list = Arrays.asList("a","b","c","d");

JavaRDD parallelize =sc.parallelize(list);

parallelize.map(//方式一

x->x+"方式一").map(//方式二

new Function() {

@Overridepublic String call(String s) throwsException {return s+"方式二";

}

}

).map(newMap_test()

).collect().forEach(x->System.out.println(x));

parallelize.flatMap(new FlatMapFunction() {

@Overridepublic Iterator call(String s) throwsException {

List l = newArrayList();if(s=="a"){

l.add(1);

}else if(s.toString().equals("b")){

l.add(2);

}else{

l.add(3);

}returnl.iterator();

}

}

).filter(new Function() {

@Overridepublic Boolean call(Integer s) throwsException {if(s<3){return true;

}return false;

}

}

).foreach(new VoidFunction() {

@Overridepublic void call(Integer integer) throwsException {

System.out.println("输出的结果"+integer);

}

}

);

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值