spark java_Spark-Java-算子

package scala.spark.Day3;

import org.apache.spark.SparkConf;

import org.apache.spark.api.java.JavaRDD;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.api.java.function.Function;

import org.apache.spark.api.java.function.VoidFunction;

import java.util.Arrays;

import java.util.List;

/**

* Created by Administrator on 2019/10/16.

*/

public class JavaRDDTest {

public static void main(String[] args) {

System.setProperty("hadoop.home.dir", "E:\\hadoop-2.6.0-cdh5.15.0\\hadoop-2.6.0-cdh5.15.0");

//JavaRDD 标准RDD

//JavaPairRDD PairRDD

//JavaDoubleRDD DoubleRDD

//java没有scala隐式转化,生成RDD时候,必须指明是哪种RDD

//实例化驱动器

SparkConf sparkConf = new SparkConf();

sparkConf.setMaster("local");

sparkConf.setAppName("Java RDD");

JavaSparkContext javaSparkContext = new JavaSparkContext(sparkConf);

//javaSparkContext.parallelize() 标准RDD

//javaSparkContext.parallelizePairs() PairRDD

//javaSparkContext.parallelizeDoubles() 数值类型RDD

List list = Arrays.asList(1, 2, 3, 4, 5);

JavaRDD sourceRDD = javaSparkContext.parallelize(list);

//map 算子

// 匿名子类

/*

public interface Function extends Serializable {

R call(T1 v1) throws Exception;

}

T1 RDD中成员的类型

v1 返回的类型

*/

JavaRDD mapRDD = sourceRDD.map(

new Function() {

public Integer call(Integer v1) throws Exception {

return v1 * v1;

}

}

);

/*

public interface VoidFunction extends Serializable {

void call(T t) throws Exception;

}

*/

mapRDD.foreach(

new VoidFunction() {

public void call(Integer integer) throws Exception {

System.out.println(integer);

}

}

);

javaSparkContext.close();

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值